Puede crear una tarea de IA generativa para implementar la lógica de IA generativa en su flujo de servicios. Las tareas de IA generativa permiten enviar una instrucción a un gran modelo de lenguaje (LLM) y recibir la salida generada.
Antes de empezar
Para utilizar las herramientas de IA generativa en el editor de flujos de servicios, primero debe configurar el servidor con una conexión al proveedor watsonx.ai™. Si navega a la pestaña Gen AI en el editor de flujo de servicio y el servidor no está configurado, una página muestra un mensaje de error y un enlace a la documentación de configuración.
Para aprender a configurar tareas de IA generativa, consulte Habilitar IA generativa en Business Automation Workflow en contenedores.
Una vez configurado el servidor, se añade una nueva entrada de IA () para la tarea de IA generativa a la sección Actividad de la paleta del editor de Flujo de Servicios.
Procedimiento
- Abra la aplicación de procesos en el diseñador y abra un flujo de servicio existente o cree uno nuevo desde el árbol de navegación de la izquierda.
- En la vista Diagrama del flujo de servicios, haga clic en la flecha situada junto al icono Actividad de la paleta de componentes para abrir la subpaleta y arrastre el icono AI () al lienzo del diagrama.
- Para configurar la tarea de IA generativa, haga clic en esa tarea en el diagrama, vaya a la pestaña Implementación y haga clic en Abrir IA Gen, o haga clic en la pestaña IA Gen en la parte superior del editor y haga clic en el nombre de la tarea en el panel de la izquierda.
Se abre un editor en la pestaña Gen AI.
- Seleccione el modelo de lenguaje extenso (LLM) que desea utilizar para su consulta.
Cada entrada incluye una breve descripción del LLM.
- Cree una solicitud que se enviará al LLM para su procesamiento.
- En el campo Contexto, introduzca una declaración imperativa.
- Opcional: En el campo Entrada, introduzca el texto al que desea que responda el modelo.
- Opcional: Añade variables para que el contexto y la entrada sean más reutilizables.
- Vaya a la pestaña Variables del flujo de servicios y, para cada variable de entrada y salida necesaria en el flujo de servicios, haga clic en el signo + situado junto a la sección Variables. En el campo Nombre, sustituya el nombre por defecto por un nombre más descriptivo. Haga clic en Seleccionar junto a Tipo de variable y elija Cadena de datos del sistema en la lista. Opcionalmente, puede establecer un valor por defecto para la variable, seleccionando Tiene valor por defecto, e introduciendo un valor en el campo correspondiente de la sección Valor por defecto.
- Desde el editor en la pestaña Gen AI, haga clic en Añadir Variable + en la sección Variables.
- Seleccione las variables que desee añadir a la tarea Gen AI en el menú desplegable y haga clic en Añadir. Sólo se admiten variables de tipo Cadena y que no sean una lista, y están disponibles en el menú desplegable.
Las variables se añaden ahora a la tarea de IA generativa y aparecen en la sección
Variables. Esas variables pueden eliminarse posteriormente haciendo clic en el icono de la papelera.
Atención: Si se elimina una variable de la pestaña Variables, dejará de estar disponible para su uso en la entrada y el contexto del indicador, y deberá eliminarse también de ahí.
- Para ver qué diferentes tipos de salida se generan para el LLM con diferentes valores de entrada, introduzca un valor de prueba para la variable en el campo Valor que se utilizará en su consulta. Este valor no se utilizará en tiempo de ejecución.
Nota: Si se ha añadido un valor por defecto para la variable en el flujo de servicio, aparecerá automáticamente en el campo Valor cuando la variable se añada a la tarea Gen AI.
- Añada variables del flujo de servicios al contexto o a la entrada haciendo clic en el signo + situado en la esquina inferior izquierda de las áreas, o pulsando . El nombre de la variable aparecerá en el campo correspondiente, entre llaves dobles, por ejemplo:
- Opcional: Para limitar la longitud de la salida generada, en el panel Parámetros, especifique el número mínimo y máximo de tokens que el LLM puede generar.
Sugerencia: Un token es una secuencia de caracteres que tiene un significado semántico para un modelo. Antes del procesamiento LLM, las palabras del texto de consulta se convierten en tokens. Del mismo modo, la salida bruta del modelo también está en forma de fichas. Estos tokens de salida se convierten de nuevo en palabras que se muestran como resultado final.
- Los valores por defecto mínimo y máximo son 1 y 50.
- El valor mínimo no puede ser 0.
- Cada LLM tiene un límite máximo en el número total de tokens, que incluye tanto los tokens en el prompt de entrada como los tokens en la salida generada. Puede ver esos límites en las descripciones LLM del menú desplegable Modelo de lenguaje grande. Para más información sobre tokens, consulte Tokens y tokenización
.
El coste de llamar al LLM depende del número de fichas que consume y produce. Para garantizar que la respuesta sea pertinente sin ser demasiado prolija, se recomienda limitar el resultado. Por ejemplo, si se espera una respuesta "sí" o "no", puede establecer el número máximo de tokens en 1.
- Opcional: Para mejorar la precisión y relevancia de la tarea de IA generativa, añada ejemplos de entrenamiento y especifique uno o más pares de entrada de muestra y salida correspondiente haciendo clic en Nuevo ejemplo en la sección Ejemplos de entrenamiento y escribiendo la entrada y la salida esperada.
Si proporciona al LLM ejemplos de entrenamiento adecuados, obtendrá resultados más ajustados, pero asegúrese de no sobrepasar el límite máximo de tokens de entrada establecido por el LLM y el límite máximo global de tokens tanto para los tokens de entrada como para los de salida generados.
- Haga clic en Generar.
Consejo: Al hacer clic en RAW junto al botón Generar se muestra la información que se envía al LLM.
- Revise el resultado en el panel Salida generada haciendo clic en el icono Indicación sin proces ar para ver las indicaciones sin procesar.
En la ventana
View raw prompt, puede ver el contexto, la entrada y los ejemplos de entrenamiento que se utilizan para obtener la salida generada:
- Para mejorar aún más los resultados de la consulta, puede editar la entrada o la salida esperada y proporcionar más ejemplos.
- Cuando esté satisfecho con la salida generada, puede hacer clic en Guardar como ejemplo para guardar la entrada de solicitud y la salida generada como un ejemplo de entrenamiento, que aparecerá en la sección Ejemplos de entrenamiento.
- Asigne la salida generada a las variables de su flujo de servicio yendo a la sección Asignación de datos en el panel de propiedades de la pestaña Diagrama.
La salida de la tarea se asigna a las variables en el flujo de servicio para que la salida pueda ser utilizada por otras tareas posteriores o procesos de llamada o tareas de servicio. No hay que rellenar ningún mapa de entrada, ya que se hace implícitamente al añadir variables en la pestaña
Gen AI. Se pueden asignar cuatro resultados de la tarea:
- Texto generado: La salida LLM.
- Recuento de fichas generadas: El número de tokens que genera el LLM para el texto Generado.
- Recuento de tokens de entrada: El número de tokens que consume el LLM para la entrada dada.
- Motivo de la parada: La razón por la que se detuvo la llamada. Puede ser:
- not_finished: Posiblemente más fichas para ser transmitidas.
- max_tokens: Se ha alcanzado el máximo de tokens solicitados.
- eos_token: Fin de secuencia encontrado.
- cancelada: Solicitud cancelada por el cliente.
- time_limit: Tiempo límite alcanzado.
- stop_sequence: Secuencia de parada encontrada.
- token_limit: Límite de tokens alcanzado.
- error: Error encontrado.
Resultados
La solicitud de IA generativa que configuró para una tarea de IA generativa en un flujo de servicio ahora se puede llamar desde su aplicación de proceso.
Nota: La gestión de errores para las tareas de IA generativa se realiza de la misma manera que para todas las tareas de un flujo de servicios, mediante el uso de eventos límite. Para obtener más información, consulte
Captura de errores mediante eventos de límite de error.