.---
copyright : years : [ {CURRENT_YEAR} ] lastupdated : "[ {LAST_UPDATED_DATE} ]"
sous-collection : watson-assistant
Configuration de LLM de base
La section Base large language model (LLM) de la page Generative AI vous aide à configurer des modèles de langue de grande taille pour vos assistants. Les LLMs du générateur d'assistant d'IA permettent à vos clients d'interagir avec les assistants en toute transparence sans aucune étape conversationnelle personnalisée. Vous pouvez activer les fonctions LLM de base pour les actions existantes de vos assistants qui améliorent leur capacité de conversation.

Vous pouvez effectuer les actions suivantes dans la configuration LLM de base:
Sélection d'un modèle de langue de grande taille pour votre assistant
Pour sélectionner le LLM qui convient à votre écosystème d'entreprise, procédez comme suit:
Accédez à Accueil > Intelligence Artificielle générative.
Dans la section Modèle de grande langue de base (LLM) , sélectionnez le modèle de grande langue dans la liste déroulante Sélectionner un modèle . Pour plus d'informations sur les modèles, voir Modèles de base pris en charge pour différents composants.
Ajout d'instructions d'invite
Vous pouvez indiquer au LLM de votre assistant de donner des réponses affinées en ajoutant des instructions d'invite. Les instructions rapides aident les LLMs à guider les conversations avec clarté et spécificité pour atteindre l'objectif final d'une action. Pour ajouter l'instruction d'invite, procédez comme suit:
Accédez à Accueil > Intelligence Artificielle générative.
Dans la section Ajouter des instructions d'invite , cliquez sur Ajouter des instructions pour afficher la zone Instruction d'invite .
Entrez les instructions d'invite dans la zone Instruction d'invite .
Le nombre maximal de caractères que vous pouvez entrer dans la zone Instruction d'invite est 1 000.
Sélection du comportement de réponse de votre assistant
Vous pouvez configurer le comportement de réponse de votre assistant pour fournir des réponses basées sur le contenu préchargé ou le contenu général. Les comportements de réponse que vous pouvez configurer sont les suivants:
Réponses générales
Dans les réponses générales, le LLM répond aux questions des clients sur des sujets généraux.
Important : si vous êtes dans l'expérience agentique de IBM watsonx Orchestrate, il se peut que la réponse générale ne soit pas disponible.Conversational search
Pour utiliser la recherche conversationnelle, vous devez configurer l'intégration de la recherche et activer la recherche conversationnelle.
Désactivé : La recherche conversationnelle désactive le processus qui l'appelle dans le chemin prioritaire d'acheminement. Vous ne désactivez pas la fonction de recherche elle-même.
Le comportement suivant en matière de recherche conversationnelle s'applique :
Si vous activez à la fois Réponse générale et Recherche conversationnelle, la Recherche conversationnelle a la priorité sur Réponse générale.
Si la réponse de l'assistant est moins fiable dans la recherche, le comportement de la réponse utilise Réponse générale.
Le LLM utilise le contenu préchargé lors de l' intégration de la recherche pour répondre aux questions des clients.
Langues prises en charge pour la recherche conversationnelle
Vous pouvez utiliser la recherche conversationnelle dans d'autres langues que l'anglais, notamment le français, l'espagnol, l'allemand et le portugais brésilien. Les modèles suivants sont les mieux adaptés à ces langues :
- ibm/granite-3-8b-instruct
- meta-llama/llama-3-1-70b-instruct
- meta-llama/llama-3-3-70b-instruct
- mistral-large
Vous pouvez effectuer un test pour vérifier que vous obtenez des résultats raisonnables dans votre langue.