.---
copyright: años: [ {CURRENT_YEAR} ] últimaactualización: "[ {LAST_UPDATED_DATE} ]"
subcolección: watson-assistant
Configuración de LLM base
La sección Modelo de lenguaje grande base (LLM) de la página AI generativa le ayuda a configurar modelos de lenguaje grandes para los asistentes. Los LLM en el constructor de asistentes de IA permiten a sus clientes interactuar con los asistentes sin problemas sin ningún paso de conversación personalizado. Puede habilitar las características de LLM base para las acciones existentes en los asistentes que mejoran su capacidad de conversación.

Puede realizar las acciones siguientes en la configuración de LLM base:
Selección de un modelo de lenguaje grande para su asistente
Para seleccionar el LLM que se adapte a su ecosistema empresarial, realice los pasos siguientes:
Vaya a Inicio > IA generativa.
En la sección Modelo de lenguaje grande base (LLM) , seleccione el modelo de lenguaje grande en el menú desplegable Seleccionar un modelo . Para obtener más información sobre los modelos, consulte Modelos de bases compatibles para diferentes componentes.
Adición de instrucciones de solicitud
Puede indicar al LLM en su asistente que proporcione respuestas refinadas añadiendo instrucciones de solicitud. Las instrucciones rápidas ayudan a las LLM a guiar las conversaciones con claridad y especificidad para lograr el objetivo final de una acción. Siga estos pasos para añadir la instrucción de solicitud:
Vaya a Inicio > IA generativa.
En la sección Añadir instrucciones de solicitud , pulse Añadir instrucciones para ver el campo Instrucción de solicitud .
Especifique las instrucciones de solicitud en el campo Instrucción de solicitud .
El número máximo de caracteres que puede especificar en el campo Instrucción de solicitud es 1.000.
Selección del comportamiento de respuesta de su asistente
Puede configurar el comportamiento de respuesta de su asistente para proporcionar respuestas basadas en el contenido precargado o en el contenido general. Los comportamientos de respuesta que puede configurar son:
Respuesta de propósito general
En las respuestas de uso general, el LLM da respuestas a las consultas de los clientes basadas en temas generales.
Importante: Si se encuentra en la experiencia agéntica de IBM watsonx Orchestrate, es posible que la respuesta general no esté disponible.Búsqueda de conversación
Para utilizar la búsqueda conversacional, debe configurar integración de búsqueda y activar búsqueda conversacional.
Desactivación : La búsqueda conversacional desactiva el proceso que la llama en la ruta de prioridad de enrutamiento. No está desactivando la capacidad de búsqueda en sí.
Se aplica el siguiente comportamiento de búsqueda conversacional:
Si activas tanto Respuesta general como Búsqueda conversacional, la Búsqueda conversacional tiene prioridad sobre Respuesta general.
Si la respuesta del asistente se puntúa menos en la confianza de búsqueda, el comportamiento de la respuesta utiliza Respuesta de propósito general.
El LLM utiliza contenidos precargados durante la integración de la búsqueda para responder a las consultas de los clientes.
Idiomas admitidos para la búsqueda conversacional
Puede utilizar la búsqueda conversacional con idiomas distintos del inglés, como el francés, el español, el alemán y el portugués de Brasil. Los siguientes modelos son los que mejor admiten estos idiomas:
- ibm/granite-3-8b-instruct
- meta-llama/llama-3-1-70b-instruct
- meta-llama/llama-3-3-70b-instruct
- mistral-large
Puede probar para verificar que obtiene resultados razonables en su idioma.