Configuración de LLM base

.---

copyright: años: [ {CURRENT_YEAR} ] últimaactualización: "[ {LAST_UPDATED_DATE} ]"

subcolección: watson-assistant

SaaS

La sección Modelo de lenguaje grande base (LLM) de la página AI generativa le ayuda a configurar modelos de lenguaje grandes para los asistentes. Los modelos de lenguaje grande (LLM) del generador de asistentes de IA permiten a tus clientes interactuar con los asistentes de forma fluida, sin necesidad de pasos conversacionales personalizados. Puede habilitar las características de LLM base para las acciones existentes en los asistentes que mejoran su capacidad de conversación.

Pantalla completa de LLM base

Puede realizar las acciones siguientes en la configuración de LLM base:

Selección de un modelo de lenguaje grande para su asistente

Para seleccionar el LLM que se adapte a su ecosistema empresarial, realice los pasos siguientes:

  1. Vaya a Inicio > IA generativa.

  2. En la sección Modelo de lenguaje grande base (LLM) , seleccione el modelo de lenguaje grande en el menú desplegable Seleccionar un modelo . Para obtener más información sobre los modelos, consulte Modelos de bases compatibles para diferentes componentes.

Adición de instrucciones de solicitud

Puede indicar al LLM en su asistente que proporcione respuestas refinadas añadiendo instrucciones de solicitud. Las instrucciones rápidas ayudan a las LLM a guiar las conversaciones con claridad y especificidad para lograr el objetivo final de una acción. Siga estos pasos para añadir la instrucción de solicitud:

  1. Vaya a Inicio > IA generativa.

  2. En la sección Añadir instrucciones de solicitud , pulse Añadir instrucciones para ver el campo Instrucción de solicitud .

  3. Especifique las instrucciones de solicitud en el campo Instrucción de solicitud .

El número máximo de caracteres que puede especificar en el campo Instrucción de solicitud es 1.000.

Selección del comportamiento de respuesta de su asistente

Puede configurar el comportamiento de respuesta de su asistente para proporcionar respuestas basadas en el contenido precargado o en el contenido general. Los comportamientos de respuesta que puede configurar son:

  • Respuesta de propósito general

En las respuestas de uso general, el LLM da respuestas a las consultas de los clientes basadas en temas generales.

Importante:

Si estás en la experiencia de agente de IBM watsonx Orchestrate, es posible que no esté disponible la función de respuesta general.

  • Búsqueda de conversación

Para utilizar la búsqueda conversacional, debes configurar la integración de la búsqueda y habilitar la búsqueda conversacional.

Desactivación : La búsqueda conversacional desactiva el proceso que la llama en la ruta de prioridad de enrutamiento. No está desactivando la capacidad de búsqueda en sí.

Se aplica el siguiente comportamiento de búsqueda conversacional:

  • Si activas tanto Respuesta general como Búsqueda conversacional, la Búsqueda conversacional tiene prioridad sobre Respuesta general.

  • Si la respuesta del asistente se puntúa menos en la confianza de búsqueda, el comportamiento de la respuesta utiliza Respuesta de propósito general.

  • El LLM utiliza contenido que se carga previamente durante la integración de la búsqueda para responder a las consultas de los clientes.