Configuración de LLM base
.---
copyright: años: [ {CURRENT_YEAR} ] últimaactualización: "[ {LAST_UPDATED_DATE} ]"
subcolección: watson-assistant
SaaS
La sección Modelo de lenguaje grande base (LLM) de la página AI generativa le ayuda a configurar modelos de lenguaje grandes para los asistentes. Los modelos de lenguaje grande (LLM) del generador de asistentes de IA permiten a tus clientes interactuar con los asistentes de forma fluida, sin necesidad de pasos conversacionales personalizados. Puede habilitar las características de LLM base para las acciones existentes en los asistentes que mejoran su capacidad de conversación.

Puede realizar las acciones siguientes en la configuración de LLM base:
Selección de un modelo de lenguaje grande para su asistente
Para seleccionar el LLM que se adapte a su ecosistema empresarial, realice los pasos siguientes:
Vaya a Inicio > IA generativa.
En la sección Modelo de lenguaje grande base (LLM) , seleccione el modelo de lenguaje grande en el menú desplegable Seleccionar un modelo . Para obtener más información sobre los modelos, consulte Modelos de bases compatibles para diferentes componentes.
Adición de instrucciones de solicitud
Puede indicar al LLM en su asistente que proporcione respuestas refinadas añadiendo instrucciones de solicitud. Las instrucciones rápidas ayudan a las LLM a guiar las conversaciones con claridad y especificidad para lograr el objetivo final de una acción. Siga estos pasos para añadir la instrucción de solicitud:
Vaya a Inicio > IA generativa.
En la sección Añadir instrucciones de solicitud , pulse Añadir instrucciones para ver el campo Instrucción de solicitud .
Especifique las instrucciones de solicitud en el campo Instrucción de solicitud .
El número máximo de caracteres que puede especificar en el campo Instrucción de solicitud es 1.000.
Selección del comportamiento de respuesta de su asistente
Puede configurar el comportamiento de respuesta de su asistente para proporcionar respuestas basadas en el contenido precargado o en el contenido general. Los comportamientos de respuesta que puede configurar son:
Respuesta de propósito general
En las respuestas de uso general, el LLM da respuestas a las consultas de los clientes basadas en temas generales.
Si estás en la experiencia de agente de IBM watsonx Orchestrate, es posible que no esté disponible la función de respuesta general.
Búsqueda de conversación
Para utilizar la búsqueda conversacional, debes configurar la integración de la búsqueda y habilitar la búsqueda conversacional.
Desactivación : La búsqueda conversacional desactiva el proceso que la llama en la ruta de prioridad de enrutamiento. No está desactivando la capacidad de búsqueda en sí.
Se aplica el siguiente comportamiento de búsqueda conversacional:
Si activas tanto Respuesta general como Búsqueda conversacional, la Búsqueda conversacional tiene prioridad sobre Respuesta general.
Si la respuesta del asistente se puntúa menos en la confianza de búsqueda, el comportamiento de la respuesta utiliza Respuesta de propósito general.
El LLM utiliza contenido que se carga previamente durante la integración de la búsqueda para responder a las consultas de los clientes.
Idiomas compatibles con la búsqueda conversacional
Puede utilizar la búsqueda conversacional con idiomas distintos del inglés, como el francés, el español, el alemán y el portugués de Brasil. Los siguientes modelos son los que mejor admiten estos idiomas:
ibm/granite-3-8b-instruct
meta-llama/llama-3-1-70b-instruct
meta-llama/llama-3-3-70b-instruct
mistral grande
Puede probar para verificar que obtiene resultados razonables en su idioma.