Inicio Temas Encadenamiento de instrucciones ¿Qué es el encadenamiento de instrucciones?
Explore el encadenamiento de instrucciones con watsonx.ai Regístrese para recibir actualizaciones sobre IA
Ilustración isométrica para el encadenamiento de mensajes

Publicado: 23 de abril de 2024
Colaboradores: Vrunda Gadesha, Eda Kavlakoglu

El encadenamiento de instrucciones es una técnica de procesamiento de lenguaje natural (NLP) , que aprovecha los modelos de lenguaje de gran tamaño (LLM) que implica generar un resultado deseado siguiendo un serial de instrucciones. En este proceso, se proporciona una secuencia de indicaciones a un modelo de PNL, guiándolo para producir la respuesta deseada. El modelo aprende a comprender el contexto y las relaciones entre las instrucciones, lo que le permite generar texto coherente, coherente y contextualmente rico[1].

El concepto es la implementación avanzada de ingeniería rápida. Ganó una atención significativa en el campo de la PNL debido a su capacidad para mejorar la calidad y controlabilidad de la generación de texto. La cadena de indicaciones eficaz se puede implementar como técnica de ingeniería sobre otros enfoques, como modelos personalizados de disparo cero, de disparos pocos o ajustados [2]. Al proporcionar una dirección y una estructura claras, el encadenamiento de indicaciones ayuda al modelo a comprender mejor las intenciones del usuario y producir respuestas más precisas y relevantes.

El encadenamiento rápido puede mejorar la eficacia de la asistencia de IA en varios dominios. Al desglosar tareas complejas en instrucciones más pequeñas y encadenarlas, los desarrolladores pueden crear respuestas más personalizadas y precisas adaptadas a las necesidades individuales de los usuarios. Este enfoque no solo mejora la experiencia general del usuario, sino que también permite una mayor personalización y adaptabilidad en respuesta a los cambiantes requisitos del usuario o escenarios de aplicación[3].

Explore los asistentes de IA
Transforme el servicio al cliente con IA: una guía completa

Descubra por qué la IA es una prioridad para el servicio al cliente, cómo desarrollar una IA responsable y su papel en la optimización de los centros de contacto y la mejora de la experiencia del cliente.

Contenido relacionado

Aplicar una copia de la guía del CEO para la IA generativa

Tipos de instrucciones

Hay dos tipos principales de instrucciones que se generan al trabajar con LLM. Estos son:

Instrucciones simples

Estas son indicaciones básicas que contienen una sola instrucción o pregunta para que el modelo responda. Por lo general, se utilizan para iniciar un conversación o para solicitar información. Un ejemplo de un mensaje simple sería: " ¿Cómo es el clima hoy? "

 

Indicaciones complejas

Estas indicaciones contienen varias instrucciones o preguntas que requieren que el modelo realice un serial de acciones o proporcione una respuesta detallada. A menudo se emplean para facilitar tareas más avanzadas o para entablar conversaciones más profundas. Un ejemplo de un mensaje complejo sería: "Estoy buscando un restaurante que sirva comida vegana y esté abierto hasta las 10 de la noche. ¿Me puedes recomendar uno?"

Cómo simplificar instrucciones complejas

Convertir una instrucción compleja en un serial de instrucciones sencillas puede ayudar a dividir una tarea compleja en subtareas más pequeñas. Este enfoque puede facilitar a los usuarios la comprensión de los pasos necesarios para completar una solicitud y reducir el riesgo de errores o malentendidos.  

Un ejemplo: la traducción de idiomas

Imaginemos que tenemos información en español. Necesitamos extraer la información de él, pero no entendemos el español. En primer lugar, tenemos que traducir el texto del español al inglés. Luego, necesitamos hacer una pregunta para extraer la información y luego traducir la información extraída del inglés al español nuevamente. Se trata de una tarea compleja, y si intentamos combinar estos pasos en una sola pregunta, resultará demasiado compleja, con el consiguiente aumento de la probabilidad de que se produzcan más errores en la respuesta. Por ello, lo mejor es convertir una pregunta compleja en una secuencia de preguntas sencillas. Algunos pasos para ello son

  1. Identificar la meta u objetivo principal del indicador. 
  2. Desglose el objetivo principal en subtareas, es decir, acciones o tareas más específicas.
  3. Cree un aviso para cada acción o tarea específica.
  4. Asegúrese de que cada mensaje sea claro, conciso y sin ambigüedades.
  5. Pruebe las indicaciones para asegurarse de que son fáciles de entender y completas.

Aquí nuestro mensaje complejo es: "Considere el texto dado en español. Tradúzcalo al inglés. Encuentre todas las estadísticas y hechos utilizados en este texto y enumérelos como viñetas. Tradúzcalos de nuevo al español".

Para convertir este prompt complejo en prompts sencillos, podemos descomponer el objetivo principal en acciones o tareas más pequeñas, y podemos crear una cadena de avisos como la siguiente:

  1. “Lea el texto en español dado”.
  2. “Traduzca el texto al idioma inglés”.
  3. “Obtenga las estadísticas y los hechos del texto”.
  4. “Cree una lista con viñetas de todos estos hechos”.
  5. “Tradúzcalos al idioma español".
Cómo crear un prompt chain

Un prompt chain estructurado es un conjunto predefinido de prompts o preguntas diseñadas para guiar a un usuario a través de una conversación específica o una serie de acciones, lo que garantiza un flujo de información consistente y controlado[4]. Se utiliza a menudo en atención al cliente, tutorías y otros sistemas interactivos para mantener la claridad, precisión y eficacia en la interacción. Las indicaciones de una cadena suelen estar vinculadas entre sí, lo que permite que el sistema se base en las respuestas anteriores y mantenga el contexto. Este enfoque puede ayudar a reducir la ambigüedad, mejorar la satisfacción del usuario y permitir una comunicación más eficaz entre humanos y máquinas.

Cree una biblioteca de referencia con plantillas de prompts de diferentes sabores

Comience por recopilar una colección de prompts preescritos que se pueden personalizar para varios escenarios. Estas plantillas deben cubrir las tareas, solicitudes y preguntas comunes que los usuarios puedan encontrar.

Definir los prompts principales

Identifique las preguntas o instrucciones básicas que deben transmitirse en el prompt chain. Estos prompts deben ser simples, claros y directos, y deben poder funcionar por sí solos como prompts individuales.

Identifique las entradas y salidas para la secuencia de solicitudes

Determine la información o las acciones específicas que el usuario debe proporcionar en respuesta a cada prompt. Estas entradas deben estar claramente definidas y ser fáciles de entender, y deben estar vinculadas a las solicitudes correspondientes en el prompt chain.

Implemente todos el prompt chain

Utilice la biblioteca de referencia y las solicitudes principales para crear el prompt chain completo. Asegúrese de que cada prompt esté vinculado lógicamente al siguiente y de que se soliciten al usuario las entradas necesarias en los puntos adecuados de la secuencia.

Pruebe el prompt chain

Una vez que se haya creado el prompt chain, pruébelo minuciosamente para asegurarse de que sea fácil de entender y completar. Pida a una muestra de usuarios que completen el prompt chain y recopilen retroalimentación sobre las áreas de mejora.

Iterar y refinar el prompt chain

En función de la retroalimentación recibida durante las pruebas, realice los ajustes o mejoras necesarios en el prompt chain. Esto puede incluir la reescritura de ciertos prompts, la adición o eliminación de prompts, o el cambio del orden en que se presentan los prompts.

Al seguir estos pasos, los representantes de atención al cliente y los programadores pueden crear prompt chains efectivos y eficientes que ayuden a guiar a los usuarios a través de una serie de acciones o tareas.

Ventajas del prompt chaining

El prompt ofrece varias ventajas sobre los métodos tradicionales utilizados en la ingeniería rápida. Al guiar el modelo a través de una serie de prompts, el prompt chaining mejora la coherencia y la consistencia en la generación de texto, lo que conduce a resultados más precisos y atractivos.

Coherencia

Al requerir que el modelo siga una serie de prompts, el prompt chaining ayuda a mantener la coherencia en la generación de texto. Esto es particularmente importante en aplicaciones donde mantener un tono, estilo o formato consistente es crucial, como en atención al cliente o roles editoriales [5].

En la atención al cliente, se puede utilizar el prompt chaining para garantizar una comunicación coherente con los usuarios. Por ejemplo, se le puede pedir al bot que se dirija al usuario con su nombre preferido o que siga un tono de voz específico a lo largo de la conversación.

Construya asistentes de IA de servicio de atención al cliente con watsonx assistant
Control mejorado

El prompt chaining proporciona un mayor control sobre la generación de texto, lo que permite a los usuarios especificar el resultado deseado con precisión. Esto es especialmente útil en situaciones en las que los datos de entrada son ruidosos o ambiguos, ya que se puede solicitar al modelo que aclare o refine la entrada antes de generar una respuesta[6].

En un sistema de resumen de texto, el prompt chaining permite a los usuarios controlar el nivel de detalle y especificidad en el resumen generado. Por ejemplo, es posible que primero se le pida al usuario que proporcione el contenido que le interesa resumir, como un trabajo de investigación. Podría aparecer un mensaje posterior para formatear ese resumen en un formato o plantilla específicos.

Vea cómo puede realizar tareas de resumen de textos con watsonx.ai (2:19)
Tasa de error reducida

El prompt chaining ayuda a reducir las tasas de error al proporcionar al modelo un mejor contexto y una entrada más centrada. Un prompt chaining estructurado ayuda a reducir el esfuerzo humano y a validar el código y las salidas con mayor rapidez. Al desglosar la entrada en prompts más pequeños y manejables, el modelo puede entender mejor las intenciones del usuario y generar respuestas más precisas y relevantes[7].

En un sistema de traducción automática, antes de traducir una frase, el sistema puede pedir primero al usuario que especifique el idioma de origen, el idioma de destino y cualquier contexto o terminología relevante. Esto ayuda al modelo a comprender mejor el texto de origen y generar una traducción precisa.

Al aprovechar estas ventajas, el prompt chaining tiene el potencial de mejorar significativamente el rendimiento y la eficacia de los modelos de PLN en diversas aplicaciones, desde la atención al cliente hasta la traducción editorial y de idiomas optimizada.

Casos de uso de prompt chaining

El prompt chaining es una técnica versátil que se puede aplicar a una amplia gama de casos de uso, que se dividen principalmente en dos categorías: respuesta a preguntas y tareas de varios pasos.

 

Respuesta a preguntas

Como su nombre indica, las tareas de respuesta a preguntas proporcionan respuestas a preguntas frecuentes planteadas por los humanos. El modelo automatiza la respuesta en función del contexto de los documentos que normalmente se encuentran en una base de conocimiento. Las aplicaciones comunes incluyen:

  • Atención al cliente/Soporte: el prompt chaining puede ayudar a los usuarios a realizar consultas en la base de conocimiento de una empresa para encontrar la respuesta más relevante, mejorando la experiencia y la eficiencia del usuario[8].
  • Plataformas educativas: los instructores pueden crear experiencias de aprendizaje interactivas pidiendo a los alumnos preguntas basadas en su progreso, permitiendo un aprendizaje personalizado y adaptativo [9].
  • Asistencia de investigación: los investigadores pueden utilizar el prompt chaining para automatizar el proceso de búsqueda y análisis de literatura relevante, ahorrando tiempo y recursos[3][10].
Tareas de varios pasos

Como era de esperar, las tareas de varios pasos se componen de una secuencia de pasos para lograr un objetivo determinado. Algunos ejemplos de esto incluyen:

  • Creación de contenido: el prompt chaining puede agilizar varias etapas del proceso de creación de contenido, como investigar un tema, crear un esquema, escribir un artículo, validar el contenido, editar y más[11][12].
  • Desarrollo de programación: el prompt chaining puede guiar a los desarrolladores a través de una serie de pasos, comenzando con la lógica básica, progresando a pseudocódigo y finalmente implementando código específico en un lenguaje determinado, al tiempo que garantiza la validación del código[3][13].
  • Recomendaciones personalizadas: este caso de uso es aplicable en diversas industrias, donde el prompt chaining puede ayudar a adaptar las recomendaciones en función de las preferencias, el comportamiento y los datos históricos del usuario[14].

El prompt chaining es una técnica potente que se puede usar en una variedad de aplicaciones en tiempo real para ayudar a guiar a los usuarios y profesionales a través de una serie de acciones o tareas. Al dividir las tareas complejas en una serie de prompts más sencillos, el prompt chaining puede ayudar a garantizar que los usuarios y los profesionales comprendan los pasos necesarios para completar una solicitud y proporcionar una mejor experiencia general. Tanto si se utiliza en la atención al cliente como en programación o educación, el encadenamiento de avisos puede ayudar a simplificar procesos complejos y mejorar la eficacia y la precisión.

Recursos relacionados ¿Qué es LangChain?

Obtenga información sobre LangChain, un marco de código abierto, que se usa comúnmente para el desarrollo de aplicaciones con LLM.

Utilice watsonx y LangChain para realizar una serie de llamadas a un modelo de lenguaje

Aprenda a encadenar modelos para generar una secuencia para un sistema genérico de preguntas y respuestas.

¿Qué es la IA generativa, qué son los modelos fundacionales y por qué es tan importante?

Descubra cómo la IA generativa está transformando las compañías y cómo preparar su organización para el futuro.

Desarrollo de instrucciones y sistemas para la ingeniería rápida Llama 2

Mejores prácticas para la ingeniería rápida con Llama 2.

Dé el siguiente paso

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de aprendizaje automático con IBM® watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai Reserve una demostración en vivo
Notas de pie de página

[1]

Pengfei Liu, W. Y. (2021). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. Encuestas de ACM Computing.

[2]

Gunwoo Yong, K. J. (2022). Prompt engineering for zero‐shot and few‐shot defect detection and classification using a visual‐language pretrained model.

[3]

O. Marchenko, O. R. (2020). Improving Text Generation Through Introducing Coherence Metrics. Cybernetics and Systems Analysis.

[4]

Zhifang Guo, Y. L. (2022). Prompttts: Controllable Text-To-Speech With Text Descriptions. Zhifang Guo, Yichong Leng, Yihan Wu, Sheng Zhao, Xuejiao Tan.

[5]

Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.

[6]

Mero, J. (2018). The effects of two-way communication and chat service usage on consumer attitudes in the e-commerce retailing sector. Electronic Markets.

[7]

Yu Cheng, J. C. (2023). Prompt Sapper: A LLM-Empowered Production Tool for Building AI Chains. ACM Transactions on Software Engineering and Methodology.

[8]

Tongshuang Sherry Wu, E. J. (2022). PromptChainer: Chaining Large Language Model Prompts through Visual Programming. CHI Conference on Human Factors in Computing Systems Extended Abstracts.

[9]

Shwetha Sridharan, D. S. (2021). Adaptive learning management expert system with evolving knowledge base and enhanced learnability. Education and Information Technologies.

[10]

Boshi Wang, X. D. (2022). Iteratively Prompt Pre-trained Language Models for Chain of Thought. Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing.

[11]

M. Rice, K. M. (2018). Evaluating an augmented remote assistance platform to support industrial applications. IEEE 4th World Forum on Internet of Things (WF-IoT).

[12]

Cynthia A. Thompson, M. G. (2011). Un sistema personalizado de recomendaciones conversacionales. J. Artif. Intell. Res.

[13]

Qing Huang, J. Z. (2023). PCR-Chain: Partial Code Reuse Assisted by Hierarchical Chaining of Prompts on Frozen Copilot. IEEE/ACM 45th International Conference on Software Engineering: Companion Proceedings (ICSE-Companion).

[14]

Yafeng Gu, Y. S. (2023). APICom: Automatic API Completion via Prompt Learning and Adversarial Training-based Data Augmentatio. Proceedings of the 14th Asia-Pacific Symposium on Internetware.