Colaboradores: Vrunda Gadesha, Eda Kavlakoglu
La cadena de impulsos de pensamiento es un enfoque de inteligencia artificial que simula procesos de razonamiento similares a los humanos delineando tareas complejas en una secuencia de pasos lógicos hacia una resolución final. Esta metodología refleja un aspecto fundamental de la inteligencia humana, ofreciendo un mecanismo estructurado para la resolución de problemas. En otras palabras, la CoT se basa en la estrategia cognitiva de descomponer problemas elaborados en pensamientos intermedios manejables que conducen secuencialmente a una respuesta concluyente.1
Si pensamos en el prompt chaining, e trata de una forma más rudimentaria de prompting de CoT, en la que se le pide a la IA que genere respuestas basadas en un contexto o pregunta determinados. Por el contrario, el prompting de CoT va más allá de la mera generación de respuestas coherentes y relevantes al requerir que la IA construya un argumento lógico completo, incluidas premisas y una conclusión, desde cero. Mientras que el prompt chaining se centra en refinar las respuestas individuales, el prompting de CoT tiene como objetivo crear un argumento integral y lógicamente coherente, ampliando así los límites de las capacidades de resolución de problemas de la IA.
Considere que si se le pregunta a una IA "¿De qué color es el cielo?", la IA generaría una respuesta simple y directa, como "El cielo es azul". Sin embargo, si se le pide que explique por qué el cielo es azul utilizando las indicaciones de CoT, la IA primero definiría qué significa "azul" (un color primario) y luego deduciría que el cielo parece azul debido a la absorción de otros colores por la atmósfera. Esta respuesta demuestra la capacidad de la IA para construir un argumento lógico.
Conozca los obstáculos para la adopción de la IA, en particular la falta de soluciones de gestión de riesgos y gobierno de la IA.
Regístrese para recibir la guía sobre modelos fundacionales
El prompting de la cadena de pensamiento aprovecha los modelos de lenguaje de gran tamaño (LLM) para articular una sucesión de pasos de razonamiento, guiando el modelo hacia la generación de cadenas de razonamiento análogas para tareas novedosas. Esto se consigue mediante prompts que ilustran el proceso de razonamiento, aumentando así la capacidad del modelo para abordar problemas de razonamiento complejos.2 Comprendamos el flujo de esta técnica de prompting abordando el clásico problema matemático verbal: resolver una ecuación polinomial.
El prompting de cadena de pensamiento (CoT) puede ayudar significativamente a resolver ecuaciones polinómicas al guiar un modelo de lenguaje de gran tamaño (LLM) para seguir una serie de pasos lógicos, desglosando el proceso de resolución de problemas.2 Examinemos cómo la estimulación CoT puede abordar una ecuación polinómica.
Considere el ejemplo de la resolución de una ecuación cuadrática.
Prompt de entrada: Resuelva la ecuación cuadrática: x2 - 5x + 6 = 0
Cuando enviamos este prompt al chat de IBM watsonx.ai, podemos ver la siguiente conversación entre la pregunta humana y la respuesta de la asistencia de IA.
Chatee con un modelo en solitario para experimentar el trabajo con IA generativa en watsonx.ai.
Lleve sus habilidades al siguiente nivel con la IA generativa
El prompting de la cadena de pensamiento (CoT) ha evolucionado en varias variantes innovadoras, cada una adaptada para abordar desafíos específicos y mejorar las capacidades de razonamiento del modelo de maneras únicas. Estas adaptaciones no sólo amplían la aplicabilidad de CoT a distintos ámbitos, sino que también perfeccionan el proceso de resolución de problemas del modelo.3
La variante de cadena de pensamiento zero-shot aprovecha el conocimiento inherente dentro de los modelos para abordar problemas sin ejemplos específicos previos o ajustes para la tarea en cuestión. Este enfoque es especialmente valioso cuando se trata de tipos de problemas nuevos o diversos en los que es posible que no se disponga de datos de entrenamiento personalizados.4 Este enfoque puede aprovechar las propiedades del prompting estándar y del few-shot prompting.
Por ejemplo, ante la pregunta "¿Cuál es la capital de un país que limita con Francia y tiene una bandera roja y blanca?", un modelo que utilice CoT de zero-shot se basaría en sus conocimientos geográficos y sobre banderas para deducir los pasos que conducen a Suiza como respuesta, a pesar de no haber sido entrenado explícitamente para este tipo de consultas.
La cadena de pensamiento automática (auto-CoT) tiene como objetivo minimizar el esfuerzo manual a la hora de elaborar las indicaciones mediante la automatización de la generación y la selección de vías de razonamiento eficaces. Esta variante mejora la escalabilidad y la accesibilidad de las solicitudes de CoT para una gama más amplia de tareas y usuarios.5, 8
Por ejemplo, para resolver un problema matemático del tipo «"Si compra 5 manzanas y ya tiene 3, ¿cuántas tiene en total?", un sistema auto-CoT podría generar automáticamente pasos intermedios, como "Empiece con 3 manzanas" y "Añada 5 manzanas a las 3 existentes", culminando en "Total manzanas = 8", agilizando el proceso de razonamiento sin intervención humana.
La cadena de pensamiento multimodal amplía el marco de CoT para incorporar entradas de varias modalidades, como texto e imágenes, lo que permite que el modelo procese e integre diversos tipos de información para tareas de razonamiento complejas.6
Por ejemplo, cuando se le presenta una imagen de una playa abarrotada y se le pregunta: "¿Es probable que esta playa sea popular en verano?", un modelo que emplee CoT multimodal podría analizar las señales visuales (incluida la ocupación de la playa, las condiciones meteorológicas, etc.) junto con su comprensión textual de la popularidad estacional para razonar una respuesta detallada, como "La playa está abarrotada, lo que indica una alta popularidad, que probablemente aumentará aún más en verano".
Estas variantes del prompting de la cadena de pensamiento no sólo demuestran la flexibilidad y adaptabilidad del enfoque CoT, sino que también apuntan al enorme potencial de desarrollo futuro de las capacidades de razonamiento y resolución de problemas de la IA.
El prompting de CoT es una técnica potente para mejorar el rendimiento de los modelos de lenguaje de gran tamaño (LLM) en tareas de razonamiento complejas, que ofrece beneficios significativos en varios dominios, como una mayor precisión, transparencia y capacidades de razonamiento de varios pasos. Sin embargo, es esencial tener en cuenta sus limitaciones, como la necesidad de instrucciones de alta calidad, el aumento del coste computacional, la susceptibilidad a los ataques de adversarios y las dificultades para evaluar las mejoras cualitativas en el razonamiento o la comprensión. Al abordar estas limitaciones, los investigadores y profesionales pueden garantizar un despliegue responsable y eficaz de las indicaciones de CoT en diversas aplicaciones.10
Los usuarios pueden beneficiarse de una serie de ventajas dentro del prompting de la cadena de pensamiento. Algunas son:
La evolución de la cadena de pensamientos (CoT) es un testimonio de los avances sinérgicos en varios dominios, en particular en el procesamiento del lenguaje natural (PLN), el aprendizaje automático y el floreciente campo de la IA generativa. Estos avances no sólo han propulsado a CoT a la vanguardia de la resolución de problemas complejos, sino que también han subrayado su utilidad en un amplio espectro de aplicaciones. Aquí, profundizamos en los desarrollos clave, integrando los términos especificados para pintar una imagen completa del progreso de CoT.
Las innovaciones en el prompt engineering han mejorado significativamente la comprensión y la interacción de los modelos con el prompt original, lo que ha dado lugar a rutas de razonamiento más matizadas y contextualizadas. Esta evolución ha sido crucial para perfeccionar la eficacia de CoT.2
La integración en tareas de razonamiento simbólico y tareas de razonamiento lógico ha mejorado la capacidad de los modelos para el pensamiento abstracto y la deducción, lo que supone un salto significativo a la hora de abordar los retos basados en la lógica con CoT.7
Por ejemplo, el razonamiento simbólico consiste en resolver ecuaciones matemáticas, como 2 + 3 = 5. En este caso, el problema se descompone en sus partes constituyentes (suma y números), y el modelo deduce la respuesta correcta basándose en sus conocimientos aprendidos y en las reglas de inferencia. El razonamiento lógico, por otro lado, implica sacar conclusiones de premisas o suposiciones, como "Todos los pájaros pueden volar y un pingüino es un pájaro". El modelo determinaría entonces que un pingüino puede volar basándose en la información proporcionada. La integración de las indicaciones de TdC en las tareas de razonamiento simbólico y lógico ha permitido a los alumnos de LLM demostrar una mayor capacidad de pensamiento abstracto y deducción, lo que les ha permitido abordar problemas más complejos y diversos.
La aplicación de la IA generativa y las arquitecturas de transformador ha revolucionado la CoT, lo que permite generar rutas de razonamiento sofisticadas que exhiben creatividad y profundidad. Esta sinergia ha ampliado la aplicabilidad de la CoT, influyendo tanto en el ámbito académico como en el práctico.9
Los avances que permiten a los modelos más pequeños participar eficazmente en el razonamiento CoT han democratizado el acceso a capacidades de razonamiento sofisticadas. El enfoque en la autocoherencia dentro de la CoT garantiza la solidez lógica de las rutas generadas, lo que mejora la fiabilidad de las conclusiones extraídas por los modelos.11
La integración de la CoT en los chatbots y el aprovechamiento de las técnicas de PLN de última generación ha transformado la IA conversacional, lo que permite a los chatbots llevar a cabo interacciones más complejas que requieren un nivel más profundo de comprensión y competencia en la resolución de problemas.12
En conjunto, estos avances significan un salto adelante en las capacidades de CoT y la importancia de la integración de chatbots y modelos CoT, destacando su potencial para revolucionar los procesos de toma de decisiones y resolución de problemas impulsados por la IA. Al combinar las capacidades conversacionales de los chatbots con las capacidades de razonamiento avanzado de los modelos CoT, podemos crear sistemas de IA más sofisticados y efectivos capaces de manejar una gama más amplia de tareas y aplicaciones.
Además, la integración de varias aplicaciones y modelos CoT puede mejorar la experiencia general del usuario al permitir que los sistemas de IA comprendan y respondan mejor a las necesidades y preferencias de los usuarios. Al integrar técnicas de procesamiento del lenguaje natural (PLN) en los modelos de CoT, podemos permitir que los chatbots entiendan y respondan a las entradas de los usuarios de una manera más humana, creando experiencias conversacionales más atractivas, intuitivas y efectivas.
La metodología de cadena de pensamientos (CoT), con la capacidad de descomponer problemas complejos en pasos de razonamiento comprensibles, ha encontrado aplicaciones en una amplia gama de campos. Estos casos de uso no sólo demuestran la versatilidad de la CoT sino también su potencial para transformar el modo en que los sistemas abordan las tareas de resolución de problemas y toma de decisiones. A continuación, exploramos varios casos de uso destacados en los que la CoT se ha aplicado de manera eficaz.
Los chatbots avanzados utilizan CoT para entender y abordar mejor las consultas de los clientes. Al desglosar el problema de un cliente en partes más pequeñas y manejables, los chatbots pueden ofrecer respuestas más precisas y útiles, mejorar la satisfacción del cliente y reducir la necesidad de intervención humana.
Los investigadores emplean la CoT para estructurar su proceso de pensamiento en la resolución de problemas científicos complejos, facilitando la innovación. Este enfoque estructurado puede acelerar el proceso de descubrimiento y permitir la formulación de hipótesis novedosas.
En la creación de contenido, la CoT ayuda a generar esquemas o resúmenes estructurados al organizar de forma lógica las ideas y la información, lo que mejora la coherencia y la calidad del contenido escrito.
La CoT es fundamental en las plataformas tecnológicas educativas, ya que ayuda a generar explicaciones paso a paso para problemas complejos. Esto es particularmente valioso en materias como matemáticas y ciencias, donde comprender el proceso es tan crucial como la respuesta final. Los sistemas basados en CoT pueden guiar a los estudiantes a través de procedimientos de resolución de problemas, mejorando su comprensión y retención.
La CoT es crucial para dilucidar el razonamiento detrás de las decisiones impulsadas por la IA, especialmente en escenarios que requieren consideraciones éticas. Al proporcionar una ruta de razonamiento transparente, la CoT garantiza que las decisiones de IA se alineen con los estándares éticos y las normas sociales.
Estos casos de uso subrayan el potencial transformador de la CoT en diversos sectores, ofreciendo una visión de su capacidad para redefinir los procesos de resolución de problemas y toma de decisiones. A medida que la CoT continúa evolucionando, se espera que sus aplicaciones se expandan, integrando aún más esta metodología en el tejido de los avances tecnológicos y sociales.
El prompting de la cadena de pensamiento supone un salto adelante en la capacidad de la IA para llevar a cabo tareas de razonamiento complejas, emulando los procesos cognitivos humanos. Al dilucidar los pasos intermedios de razonamiento, la CoT no solo amplifica la perspicacia de resolución de problemas de los LLM, sino que también mejora la transparencia y la interpretabilidad. A pesar de las limitaciones inherentes, las exploraciones en curso de las variantes y aplicaciones de la CoT continúan ampliando las capacidades de razonamiento de los modelos de IA, lo que presagia futuras mejoras en las funcionalidades cognitivas de la IA.
Granite es la serie insignia de IBM de modelos fundacionales LLM basados en arquitectura del transformador sólo decodificador. Los modelos de lenguaje Granite se entrenan con datos empresariales fiables que abarcan datos de Internet, académicos, de código, legales y financieros.
Aprenda a aprovechar las bases de datos adecuadas para aplicaciones, análisis e IA generativa.
Descubra cómo su organización puede escalar las cargas de trabajo de IA para todos sus datos, en cualquier lugar.
1 Boshi Wang, SM (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739. https://doi.org/10.48550/arXiv.2212.10001.
2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36ª Conferencia sobre Sistemas de Procesamiento de la Información Neuronal (NeurIPS 2022).
3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv. abs/2309.15402.
4Omar Shaikh, H. Z. (Diciembre de 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv. abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.
5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv. abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.
6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv. abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.
7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv. abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.
8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv. abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.
9A Vaswani, N. S. (2017). Attention is all you need. Advances in neural information processing systems.
10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open. 2. 216--224.
11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. En Actas de la decimoctava conferencia internacional sobre inteligencia artificial y derecho . 159-168.
12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .