.---
copyright: Jahre: [ {CURRENT_YEAR} ] lastupdated: "[ {LAST_UPDATED_DATE} ]"
unterkollektion: watson-assistent
Basis-LLM konfigurieren
Im Abschnitt Base large language model (LLM) auf der Seite Generative AI können Sie große Sprachmodelle für Ihre Assistenten konfigurieren. Die LLMs in AI Assistant Builder ermöglichen Ihren Kunden die nahtlose Interaktion mit den Assistenten ohne kundenspezifische Dialogschritte. Sie können die LLM-Basisfunktionen für die vorhandenen Aktionen in Ihren Assistenten aktivieren, die ihre Dialogfunktionalität verbessern.

Sie können die folgenden Aktionen in der LLM-Basiskonfiguration ausführen:
Auswählen eines großen Sprachmodells für Ihren Assistenten
Führen Sie die folgenden Schritte aus, um das LLM auszuwählen, das Ihrem Unternehmensumfeld entspricht:
Rufen Sie Home > Generative AIauf.
Wählen Sie im Abschnitt Base large language model (LLM) das Modell für große Sprachen aus der Dropdown-Liste Modell auswählen aus. Weitere Informationen zu Modellen finden Sie unter Unterstützte Stiftungsmodelle für verschiedene Komponenten.
Anweisungen für Eingabeaufforderungen hinzufügen
Sie können das LLM in Ihrem Assistenten anweisen, optimierte Antworten zu geben, indem Sie Eingabeaufforderungen hinzufügen. Die schnellen Anweisungen helfen LLMs, die Gespräche mit Klarheit und Spezifität zu führen, um das Endziel einer Aktion zu erreichen. Führen Sie die folgenden Schritte aus, um die Eingabeaufforderungsanweisung hinzuzufügen:
Rufen Sie Home > Generative AIauf.
Klicken Sie im Abschnitt Anweisungen für Eingabeaufforderung hinzufügen auf Anweisungen hinzufügen , um das Feld Anweisungen für Eingabeaufforderung anzuzeigen.
Geben Sie die Eingabeaufforderungsanweisungen im Feld Eingabeaufforderungsanweisung ein.
Im Feld Anweisung für Eingabeaufforderung können maximal 1.000 Zeichen eingegeben werden.
Auswählen des Antwortverhaltens Ihres Assistenten
Sie können das Antwortverhalten Ihres Assistenten konfigurieren, um Antworten bereitzustellen, die auf dem vorinstallierten Inhalt oder dem allgemeinen Inhalt basieren. Sie können die folgenden Antwortverhalten konfigurieren:
Antworten für allgemeine Zwecke
Bei allgemeinen Anfragen beantwortet der LLM Kundenanfragen zu allgemeinen Themen.
Wichtig: Wenn Sie sich in der Agentenerfahrung von IBM befinden watsonx Orchestrate, kann es sein, dass die allgemeine Beantwortung nicht verfügbar ist.Dialogsuche
Um die Konversationssuche zu nutzen, müssen Sie Suchintegration konfigurieren und Konversationssuche aktivieren.
Ausschalten : Die konversationelle Suche deaktiviert den Prozess, der sie im Routing-Prioritätspfad aufruft. Sie deaktivieren nicht die Suchfunktion selbst.
Es gilt das folgende Verhalten der Konversationssuche:
Wenn Sie sowohl Allgemeine Beantwortung als auch Gesprächssuche aktivieren, hat die Gesprächssuche Vorrang vor der Allgemeinen Beantwortung.
Wenn die Assistentenantwort in der Suchkonfidenz weniger bewertet wird, verwendet das Antwortverhalten Antworten für allgemeine Zwecke.
Der LLM nutzt Inhalte, die während der Suchintegration vorgeladen werden, um Kundenanfragen zu beantworten.
Unterstützte Sprachen für die Konversationssuche
Sie können die Konversationssuche mit anderen Sprachen als Englisch verwenden, einschließlich Französisch, Spanisch, Deutsch und brasilianischem Portugiesisch. Diese Sprachen werden am besten durch die folgenden Modelle unterstützt:
- ibm/granite-3-8b-instruct
- meta-llama/llama-3-1-70b-instruct
- meta-llama/llama-3-3-70b-instruct
- mistral-groß
Sie können testen, ob Sie in Ihrer Sprache angemessene Ergebnisse erzielen.