Mi IBM Inicie sesión Suscríbase

¿Qué es la cadena de pensamientos (CoT)?

12 de agosto de 2024

Autores

Vrunda Gadesha

AI Advocate | Technical Content Author

Eda Kavlakoglu

Program Manager

La cadena de pensamiento (CoT) refleja el razonamiento humano, facilitando la resolución sistemática de problemas a través de una serie coherente de deducciones lógicas.

La cadena de impulsos de pensamiento es un enfoque de inteligencia artificial que simula procesos de razonamiento similares a los humanos delineando tareas complejas en una secuencia de pasos lógicos hacia una resolución final. Esta metodología refleja un aspecto fundamental de la inteligencia humana, ofreciendo un mecanismo estructurado para la resolución de problemas. En otras palabras, la CoT se basa en la estrategia cognitiva de descomponer problemas elaborados en pensamientos intermedios manejables que conducen secuencialmente a una respuesta concluyente1.

Diferencia entre el prompt chaining y la cadena de pensamientos (CoT)

Si pensamos en el prompt chaining, e trata de una forma más rudimentaria de prompting de CoT, en la que se le pide a la IA que genere respuestas basadas en un contexto o pregunta determinados. Por el contrario, el prompting de CoT va más allá de la mera generación de respuestas coherentes y relevantes al requerir que la IA construya un argumento lógico completo, incluidas premisas y una conclusión, desde cero. Mientras que el prompt chaining se centra en refinar las respuestas individuales, el prompting de CoT tiene como objetivo crear un argumento integral y lógicamente coherente, ampliando así los límites de las capacidades de resolución de problemas de la IA.

Considere que si se le pregunta a una IA "¿De qué color es el cielo?", la IA generaría una respuesta simple y directa, como "El cielo es azul". Sin embargo, si se le pide que explique por qué el cielo es azul utilizando las indicaciones de CoT, la IA primero definiría qué significa "azul" (un color primario) y luego deduciría que el cielo parece azul debido a la absorción de otros colores por la atmósfera. Esta respuesta demuestra la capacidad de la IA para construir un argumento lógico.

¿Cómo funciona el prompting de la cadena de pensamiento?

El prompting de la cadena de pensamiento aprovecha los modelos de lenguaje de gran tamaño (LLM) para articular una sucesión de pasos de razonamiento, guiando el modelo hacia la generación de cadenas de razonamiento análogas para tareas novedosas. Esto se consigue mediante instrucciones que ilustran el proceso de razonamiento, aumentando así la capacidad del modelo para abordar problemas de razonamiento complejos2. Comprendamos el flujo de esta técnica de prompting abordando el clásico problema matemático verbal: resolver una ecuación polinomial.

Ejemplo: ¿Cómo funciona el prompting de la cadena de pensamiento para resolver ecuaciones polinómicas?

El prompting de cadena de pensamiento (CoT) puede ayudar significativamente a resolver ecuaciones polinómicas al guiar un modelo de lenguaje de gran tamaño (LLM) para seguir una serie de pasos lógicos, desglosando el proceso de resolución de problemas2. Examinemos cómo la estimulación CoT puede abordar una ecuación polinómica.

Considere el ejemplo de la resolución de una ecuación cuadrática.

Instrucción de entrada: resuelva la ecuación cuadrática: x2 - 5x + 6 = 0

Al dar esta instrucción al chat de IBM watsonx.ai, podemos ver la siguiente conversación entre la pregunta humana y la respuesta de la asistencia de IA.

Para generar este tipo de salida, los fundamentos de CoT funcionan como se ilustra en la siguiente imagen. La respuesta final de la cadena de pensamiento será "Las soluciones a la ecuación x2 − 5x + 6 = 0 son x = 3 y x = 2"

Variantes de la cadena de pensamiento

El prompting de la cadena de pensamiento (CoT) ha evolucionado en varias variantes innovadoras, cada una adaptada para abordar desafíos específicos y mejorar las capacidades de razonamiento del modelo de maneras únicas. Estas adaptaciones no sólo amplían la aplicabilidad de CoT a distintos ámbitos, sino que también perfeccionan el proceso de resolución de problemas del modelo3.

Cadena de pensamiento zero-shot

La variante de cadena de pensamiento zero-shot aprovecha el conocimiento inherente dentro de los modelos para abordar problemas sin ejemplos específicos previos o ajustes para la tarea en cuestión. Este enfoque es especialmente valioso cuando se trata de tipos de problemas nuevos o diversos en los que es posible que no se disponga de datos de entrenamiento personalizados4. Este enfoque puede aprovechar las propiedades del prompting estándar y del few-shot prompting.

Por ejemplo, ante la pregunta "¿Cuál es la capital de un país que limita con Francia y tiene una bandera roja y blanca?", un modelo que utilice CoT de zero-shot se basaría en sus conocimientos geográficos y sobre banderas para deducir los pasos que conducen a Suiza como respuesta, a pesar de no haber sido entrenado explícitamente para este tipo de consultas.

Cadena de pensamiento automática

La cadena de pensamiento automática (auto-CoT) tiene como objetivo minimizar el esfuerzo manual a la hora de elaborar las instrucciones mediante la automatización de la generación y la selección de vías de razonamiento eficaces. Esta variante mejora la escalabilidad y la accesibilidad de las solicitudes de CoT para una gama más amplia de tareas y usuarios5, 8.

Por ejemplo, para resolver un problema matemático del tipo «"Si compra 5 manzanas y ya tiene 3, ¿cuántas tiene en total?", un sistema auto-CoT podría generar automáticamente pasos intermedios, como "Empiece con 3 manzanas" y "Añada 5 manzanas a las 3 existentes", culminando en "Total manzanas = 8", agilizando el proceso de razonamiento sin intervención humana.

Cadena de pensamiento multimodal

La cadena de pensamiento multimodal amplía el marco de CoT para incorporar entradas de varias modalidades, como texto e imágenes, lo que permite que el modelo procese e integre diversos tipos de información para tareas de razonamiento complejas6.

Por ejemplo, cuando se le presenta una imagen de una playa abarrotada y se le pregunta: "¿Es probable que esta playa sea popular en verano?", un modelo que emplee CoT multimodal podría analizar las señales visuales (incluida la ocupación de la playa, las condiciones meteorológicas, etc.) junto con su comprensión textual de la popularidad estacional para razonar una respuesta detallada, como "La playa está abarrotada, lo que indica una alta popularidad, que probablemente aumentará aún más en verano".

Estas variantes del prompting de la cadena de pensamiento no sólo demuestran la flexibilidad y adaptabilidad del enfoque CoT, sino que también apuntan al enorme potencial de desarrollo futuro de las capacidades de razonamiento y resolución de problemas de la IA.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Ventajas y limitaciones

El prompting de CoT es una técnica potente para mejorar el rendimiento de los modelos de lenguaje de gran tamaño (LLM) en tareas de razonamiento complejas, que ofrece beneficios significativos en varios dominios, como una mayor precisión, transparencia y capacidades de razonamiento de varios pasos. Sin embargo, es esencial tener en cuenta sus limitaciones, como la necesidad de instrucciones de alta calidad, el aumento del coste computacional, la susceptibilidad a los ataques de adversarios y las dificultades para evaluar las mejoras cualitativas en el razonamiento o la comprensión. Al abordar estas limitaciones, los investigadores y profesionales pueden garantizar una implementación responsable y eficaz de las indicaciones de CoT en diversas aplicaciones10.

Ventajas del prompting de la cadena de pensamiento

Los usuarios pueden beneficiarse de una serie de ventajas dentro del prompting de la cadena de pensamiento. Algunas son:

  • Mejora de las instrucciones: el prompting de CoT mejora el rendimiento de los LLM en tareas de razonamiento complejas al dividirlas en pasos lógicos más simples.
  • Transparencia y comprensión: la generación de pasos intermedios de razonamiento ofrece transparencia sobre cómo el modelo llega a sus conclusiones, lo que hace que el proceso de toma de decisiones sea más comprensible para los usuarios.
  • Razonamiento de varios pasos: al abordar sistemáticamente cada componente de un problema, el prompting de CoT a menudo conduce a respuestas más precisas y fiables, especialmente en las tareas que requieren un razonamiento de varios pasos. El razonamiento en varios pasos se refiere a la capacidad de realizar operaciones lógicas complejas descomponiéndolas en pasos secuenciales más pequeños. Esta habilidad cognitiva es esencial para resolver problemas complejos, tomar decisiones y comprender las relaciones de causa y efecto. 
  • Atención al detalle: el modelo de explicación paso a paso es similar a los métodos de enseñanza que fomentan la comprensión a través de desgloses detallados, lo que hace que el prompting de CoT sea útil en contextos educativos.
  • Diversidad: la CoT se puede aplicar a una amplia gama de tareas, que incluyen, entre otras, el razonamiento aritmético, el razonamiento de sentido común y la resolución de problemas complejos, lo que demuestra su utilidad flexible.

Limitaciones del prompting de la cadena de pensamiento

Estas son algunas limitaciones encontradas durante la adopción de la cadena de pensamientos.
  • Control de calidad: la eficacia del prompting de CoT depende en gran medida de la calidad de las indicaciones proporcionadas, lo que requiere ejemplos cuidadosamente elaborados para guiar el modelo con precisión.
  • Alta potencia computacional: generar y procesar múltiples pasos de razonamiento requiere más potencia computacional y tiempo en comparación con el razonamiento estándar de un solo paso. Por lo tanto, es más caro adoptar esta técnica en cualquier organización.
  • Error en el concepto: existe el riesgo de generar vías de razonamiento plausibles pero incorrectas, que lleven a conclusiones engañosas o falsas.
  • Costoso y laborioso: el diseño del prompting de CoT eficaces puede ser más complejo y laborioso, lo que requiere una comprensión profunda del dominio del problema y las capacidades del modelo.
  • Sobreajuste de los modelos: existe el riesgo potencial de que los modelos se sobreajusten al estilo o patrón de razonamiento de las instrucciones, lo que podría reducir sus capacidades de generalización en diversas tareas.
  • Evaluación y validación: aunque la CoT puede mejorar la interpretabilidad y la precisión, medir las mejoras cualitativas en el razonamiento o la comprensión puede ser un desafío. Se debe a la complejidad inherente de la cognición humana y a la naturaleza subjetiva de la evaluación de las expresiones lingüísticas. Sin embargo, se pueden emplear varios enfoques para evaluar la eficacia de las indicaciones de CoT. Por ejemplo, si se comparan las respuestas del modelo con las de un modelo de referencia o con las de expertos humanos, se puede comprender mejor el aumento relativo del rendimiento. Además, el análisis de los pasos intermedios de razonamiento generados por el LLM puede ofrecer información valiosa sobre el proceso de toma de decisiones, incluso si es difícil medir directamente las mejoras en el razonamiento o la comprensión.
Mixture of Experts | Pódcast

Descifrar la IA: resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el bullicio de la IA para ofrecerle las últimas noticias y conocimientos al respecto.

Avances en la cadena de pensamiento

La evolución de la cadena de pensamientos (CoT) es un testimonio de los avances sinérgicos en varios dominios, en particular en el procesamiento del lenguaje natural (PLN), el machine learning y el floreciente campo de la IA generativa. Estos avances no sólo han propulsado a CoT a la vanguardia de la resolución de problemas complejos, sino que también han subrayado su utilidad en un amplio espectro de aplicaciones. Aquí, profundizamos en los desarrollos clave, integrando los términos especificados para pintar una imagen completa del progreso de CoT.

Ingeniería de avisos y el aviso original

Las innovaciones en el prompt engineering han mejorado significativamente la comprensión y la interacción de los modelos con la instrucción original, lo que ha dado lugar a rutas de razonamiento más matizadas y contextualizadas. Esta evolución ha sido crucial para perfeccionar la eficacia de CoT2.

Razonamiento simbólico y razonamiento lógico

La integración en tareas de razonamiento simbólico y tareas de razonamiento lógico ha mejorado la capacidad de los modelos para el pensamiento abstracto y la deducción, lo que supone un salto significativo a la hora de abordar los retos basados en la lógica con CoT7.

Por ejemplo, el razonamiento simbólico consiste en resolver ecuaciones matemáticas, como 2 + 3 = 5. En este caso, el problema se descompone en sus partes constituyentes (suma y números), y el modelo deduce la respuesta correcta basándose en sus conocimientos aprendidos y en las reglas de inferencia. El razonamiento lógico, por otro lado, implica sacar conclusiones de premisas o suposiciones, como "Todos los pájaros pueden volar y un pingüino es un pájaro". El modelo determinaría entonces que un pingüino puede volar basándose en la información proporcionada. La integración de las indicaciones de TdC en las tareas de razonamiento simbólico y lógico ha permitido a los alumnos de LLM demostrar una mayor capacidad de pensamiento abstracto y deducción, lo que les ha permitido abordar problemas más complejos y diversos.

Aumento de la creatividad

La aplicación de la IA generativa y las arquitecturas del transformador ha revolucionado la CoT, lo que permite generar rutas de razonamiento sofisticadas que exhiben creatividad y profundidad. Esta sinergia ha ampliado la aplicabilidad de la CoT, influyendo tanto en el ámbito académico como en el práctico9.

Modelos más pequeños y autoconsistencia

Los avances que permiten a los modelos más pequeños participar eficazmente en el razonamiento CoT han democratizado el acceso a capacidades de razonamiento sofisticadas. El enfoque en la autocoherencia dentro de la CoT garantiza la solidez lógica de las rutas generadas, lo que mejora la fiabilidad de las conclusiones extraídas por los modelos11.

Asistente de IA

La integración del CoT en los chatbots y el uso de las técnicas de PNL más modernas han transformado la IA conversacional, ya que permite a los chatbots llevar a cabo interacciones más complejas que requieren un mayor nivel de comprensión y capacidad para resolver problemas12.

En conjunto, estos avances significan un salto adelante en las capacidades de CoT y la importancia de la integración de chatbots y modelos CoT, destacando su potencial para revolucionar los procesos de toma de decisiones y resolución de problemas impulsados por la IA. Al combinar las capacidades conversacionales de los chatbots con las capacidades de razonamiento avanzado de los modelos CoT, podemos crear sistemas de IA más sofisticados y efectivos capaces de manejar una gama más amplia de tareas y aplicaciones.

Además, la integración de varias aplicaciones y modelos CoT puede mejorar la experiencia general del usuario al permitir que los sistemas de IA comprendan y respondan mejor a las necesidades y preferencias de los usuarios. Al integrar técnicas de procesamiento del lenguaje natural (PLN) en los modelos de CoT, podemos permitir que los chatbots entiendan y respondan a las entradas de los usuarios de una manera más humana, creando experiencias conversacionales más atractivas, intuitivas y efectivas.

Casos de uso para la cadena de pensamientos

La metodología de cadena de pensamientos (CoT), con la capacidad de descomponer problemas complejos en pasos de razonamiento comprensibles, ha encontrado aplicaciones en una amplia gama de campos. Estos casos de uso no sólo demuestran la versatilidad de la CoT sino también su potencial para transformar el modo en que los sistemas abordan las tareas de resolución de problemas y toma de decisiones. A continuación, exploramos varios casos de uso destacados en los que la CoT se ha aplicado de manera eficaz.

Chatbots de servicio de atención al cliente

Los chatbots avanzados utilizan CoT para entender y abordar mejor las consultas de los clientes. Al desglosar el problema de un cliente en partes más pequeñas y manejables, los chatbots pueden ofrecer respuestas más precisas y útiles, mejorar la satisfacción del cliente y reducir la necesidad de intervención humana.

Investigación e innovación

Los investigadores emplean la CoT para estructurar su proceso de pensamiento en la resolución de problemas científicos complejos, facilitando la innovación. Este enfoque estructurado puede acelerar el proceso de descubrimiento y permitir la formulación de hipótesis novedosas.

Creación y resumen de contenidos

En la creación de contenido, la CoT ayuda a generar esquemas o resúmenes estructurados al organizar de forma lógica las ideas y la información, lo que mejora la coherencia y la calidad del contenido escrito.

Educación y aprendizaje

La CoT es fundamental en las plataformas tecnológicas educativas, ya que ayuda a generar explicaciones paso a paso para problemas complejos. Esto es particularmente valioso en materias como matemáticas y ciencias, donde comprender el proceso es tan crucial como la respuesta final. Los sistemas basados en CoT pueden guiar a los estudiantes a través de procedimientos de resolución de problemas, mejorando su comprensión y retención.

Ética de la IA y toma de decisiones

La CoT es crucial para dilucidar el razonamiento detrás de las decisiones impulsadas por la IA, especialmente en escenarios que requieren consideraciones éticas. Al proporcionar una ruta de razonamiento transparente, la CoT garantiza que las decisiones de IA se alineen con los estándares éticos y las normas sociales.

Estos casos de uso subrayan el potencial transformador de la CoT en diversos sectores, ofreciendo una visión de su capacidad para redefinir los procesos de resolución de problemas y toma de decisiones. A medida que la CoT continúa evolucionando, se espera que sus aplicaciones se expandan, integrando aún más esta metodología en el tejido de los avances tecnológicos y sociales.

El prompting de la cadena de pensamiento supone un salto adelante en la capacidad de la IA para llevar a cabo tareas de razonamiento complejas, emulando los procesos cognitivos humanos. Al dilucidar los pasos intermedios de razonamiento, la CoT no solo amplifica la perspicacia de resolución de problemas de los LLM, sino que también mejora la transparencia y la interpretabilidad. A pesar de las limitaciones inherentes, las exploraciones en curso de las variantes y aplicaciones de la CoT continúan ampliando las capacidades de razonamiento de los modelos de IA, lo que presagia futuras mejoras en las funcionalidades cognitivas de la IA.

Soluciones relacionadas

Soluciones relacionadas

IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida de desarrollo de la IA. Produzca potentes soluciones de IA con interfaces intuitivas, flujos de trabajo y acceso a API y SDK estándar del sector.

Explore watsonx.ai Solicite una demostración en directo
Notas a pie de página

1 Boshi Wang, S.M. (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739. https://doi.org/10.48550/arXiv.2212.10001.

2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36.ª Conferencia sobre Sistemas de Procesamiento de la Información Neuronal (NeurIPS 2022).

3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv. abs/2309.15402.

4Omar Shaikh, H. Z. (Diciembre de 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv. abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.

5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv. abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.

6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv. abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.

7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv. abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.

8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv. abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.

9A Vaswani, N. S. (2017). Attention is all you need. Advances in neural information processing systems.

10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open. 2. 216--224.

11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. En Actas de la decimoctava conferencia internacional sobre inteligencia artificial y derecho . 159-168.

12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .