Inicio Topics ¿Qué es la cadena de pensamientos (CoT)? ¿Qué es la cadena de pensamientos (CoT)?
Explore la cadena de pensamientos con watsonx.ai Suscríbase para conocer lo último en IA
Ilustración con collage de pictogramas de archivos y datos que representan la cadena de pensamiento que impulsa

Colaboradores: Vrunda Gadesha, Eda Kavlakoglu

La cadena de pensamiento (CoT) refleja el razonamiento humano, facilitando la resolución sistemática de problemas a través de una serie coherente de deducciones lógicas.

 

La cadena de impulsos de pensamiento es un enfoque de inteligencia artificial que simula procesos de razonamiento similares a los humanos delineando tareas complejas en una secuencia de pasos lógicos hacia una resolución final. Esta metodología refleja un aspecto fundamental de la inteligencia humana, ofreciendo un mecanismo estructurado para la resolución de problemas. En otras palabras, la CoT se basa en la estrategia cognitiva de descomponer problemas elaborados en pensamientos intermedios manejables que conducen secuencialmente a una respuesta concluyente.1

 

Diferencia entre el prompt chaining y la cadena de pensamientos (CoT)

Si pensamos en el prompt chaining, e trata de una forma más rudimentaria de prompting de CoT, en la que se le pide a la IA que genere respuestas basadas en un contexto o pregunta determinados. Por el contrario, el prompting de CoT va más allá de la mera generación de respuestas coherentes y relevantes al requerir que la IA construya un argumento lógico completo, incluidas premisas y una conclusión, desde cero. Mientras que el prompt chaining se centra en refinar las respuestas individuales, el prompting de CoT tiene como objetivo crear un argumento integral y lógicamente coherente, ampliando así los límites de las capacidades de resolución de problemas de la IA.

Considere que si se le pregunta a una IA "¿De qué color es el cielo?", la IA generaría una respuesta simple y directa, como "El cielo es azul". Sin embargo, si se le pide que explique por qué el cielo es azul utilizando las indicaciones de CoT, la IA primero definiría qué significa "azul" (un color primario) y luego deduciría que el cielo parece azul debido a la absorción de otros colores por la atmósfera. Esta respuesta demuestra la capacidad de la IA para construir un argumento lógico.

Explore los LLM de nivel empresarial: Investigación de IBM
Por qué el gobierno de la IA es un imperativo para escalar la inteligencia artificial empresarial

Conozca los obstáculos para la adopción de la IA, en particular la falta de soluciones de gestión de riesgos y gobierno de la IA.

Contenido relacionado

Regístrese para recibir la guía sobre modelos fundacionales

¿Cómo funciona el prompting de la cadena de pensamiento?

El prompting de la cadena de pensamiento aprovecha los modelos de lenguaje de gran tamaño (LLM) para articular una sucesión de pasos de razonamiento, guiando el modelo hacia la generación de cadenas de razonamiento análogas para tareas novedosas. Esto se consigue mediante prompts que ilustran el proceso de razonamiento, aumentando así la capacidad del modelo para abordar problemas de razonamiento complejos.2 Comprendamos el flujo de esta técnica de prompting abordando el clásico problema matemático verbal: resolver una ecuación polinomial.

Ejemplo: ¿Cómo funciona el prompting de la cadena de pensamiento para resolver ecuaciones polinómicas?

El prompting de cadena de pensamiento (CoT) puede ayudar significativamente a resolver ecuaciones polinómicas al guiar un modelo de lenguaje de gran tamaño (LLM) para seguir una serie de pasos lógicos, desglosando el proceso de resolución de problemas.2 Examinemos cómo la estimulación CoT puede abordar una ecuación polinómica.

Considere el ejemplo de la resolución de una ecuación cuadrática.

Prompt de entrada: Resuelva la ecuación cuadrática: x2 - 5x + 6 = 0

Cuando enviamos este prompt al chat de IBM watsonx.ai, podemos ver la siguiente conversación entre la pregunta humana y la respuesta de la asistencia de IA.

 

 

Para generar este tipo de salida, los fundamentos de CoT funcionan como se ilustra en la siguiente imagen. La respuesta final de la cadena de pensamiento será "Las soluciones a la ecuación x2 − 5x + 6 = 0 son x = 3 y x = 2"

Explore la demostración de IBM watsonx.ai

Chatee con un modelo en solitario para experimentar el trabajo con IA generativa en watsonx.ai.

Contenido relacionado

Lleve sus habilidades al siguiente nivel con la IA generativa

Variantes de la cadena de pensamiento

El prompting de la cadena de pensamiento (CoT) ha evolucionado en varias variantes innovadoras, cada una adaptada para abordar desafíos específicos y mejorar las capacidades de razonamiento del modelo de maneras únicas. Estas adaptaciones no sólo amplían la aplicabilidad de CoT a distintos ámbitos, sino que también perfeccionan el proceso de resolución de problemas del modelo.3

Cadena de pensamiento zero-shot

La variante de cadena de pensamiento zero-shot aprovecha el conocimiento inherente dentro de los modelos para abordar problemas sin ejemplos específicos previos o ajustes para la tarea en cuestión. Este enfoque es especialmente valioso cuando se trata de tipos de problemas nuevos o diversos en los que es posible que no se disponga de datos de entrenamiento personalizados.4 Este enfoque puede aprovechar las propiedades del prompting estándar y del few-shot prompting.

Por ejemplo, ante la pregunta "¿Cuál es la capital de un país que limita con Francia y tiene una bandera roja y blanca?", un modelo que utilice CoT de zero-shot se basaría en sus conocimientos geográficos y sobre banderas para deducir los pasos que conducen a Suiza como respuesta, a pesar de no haber sido entrenado explícitamente para este tipo de consultas.

Cadena de pensamiento automática

La cadena de pensamiento automática (auto-CoT) tiene como objetivo minimizar el esfuerzo manual a la hora de elaborar las indicaciones mediante la automatización de la generación y la selección de vías de razonamiento eficaces. Esta variante mejora la escalabilidad y la accesibilidad de las solicitudes de CoT para una gama más amplia de tareas y usuarios.5, 8

Por ejemplo, para resolver un problema matemático del tipo «"Si compra 5 manzanas y ya tiene 3, ¿cuántas tiene en total?", un sistema auto-CoT podría generar automáticamente pasos intermedios, como "Empiece con 3 manzanas" y "Añada 5 manzanas a las 3 existentes", culminando en "Total manzanas = 8", agilizando el proceso de razonamiento sin intervención humana.

Cadena de pensamiento multimodal

La cadena de pensamiento multimodal amplía el marco de CoT para incorporar entradas de varias modalidades, como texto e imágenes, lo que permite que el modelo procese e integre diversos tipos de información para tareas de razonamiento complejas.6

Por ejemplo, cuando se le presenta una imagen de una playa abarrotada y se le pregunta: "¿Es probable que esta playa sea popular en verano?", un modelo que emplee CoT multimodal podría analizar las señales visuales (incluida la ocupación de la playa, las condiciones meteorológicas, etc.) junto con su comprensión textual de la popularidad estacional para razonar una respuesta detallada, como "La playa está abarrotada, lo que indica una alta popularidad, que probablemente aumentará aún más en verano".

Estas variantes del prompting de la cadena de pensamiento no sólo demuestran la flexibilidad y adaptabilidad del enfoque CoT, sino que también apuntan al enorme potencial de desarrollo futuro de las capacidades de razonamiento y resolución de problemas de la IA.

Ventajas y limitaciones

El prompting de CoT es una técnica potente para mejorar el rendimiento de los modelos de lenguaje de gran tamaño (LLM) en tareas de razonamiento complejas, que ofrece beneficios significativos en varios dominios, como una mayor precisión, transparencia y capacidades de razonamiento de varios pasos. Sin embargo, es esencial tener en cuenta sus limitaciones, como la necesidad de instrucciones de alta calidad, el aumento del coste computacional, la susceptibilidad a los ataques de adversarios y las dificultades para evaluar las mejoras cualitativas en el razonamiento o la comprensión. Al abordar estas limitaciones, los investigadores y profesionales pueden garantizar un despliegue responsable y eficaz de las indicaciones de CoT en diversas aplicaciones.10

Ventajas del prompting de la cadena de pensamiento

Los usuarios pueden beneficiarse de una serie de ventajas dentro del prompting de la cadena de pensamiento. Algunas son:

  • Mejora de los prompts: el prompting de CoT mejora el rendimiento de los LLM en tareas de razonamiento complejas al dividirlas en pasos lógicos más simples.
  • Transparencia y comprensión: la generación de pasos intermedios de razonamiento ofrece transparencia sobre cómo el modelo llega a sus conclusiones, lo que hace que el proceso de toma de decisiones sea más comprensible para los usuarios.
  • Razonamiento de varios pasos: al abordar sistemáticamente cada componente de un problema, el prompting de CoT a menudo conduce a respuestas más precisas y fiables, especialmente en las tareas que requieren un razonamiento de varios pasos. El razonamiento en varios pasos se refiere a la capacidad de realizar operaciones lógicas complejas descomponiéndolas en pasos secuenciales más pequeños. Esta habilidad cognitiva es esencial para resolver problemas complejos, tomar decisiones y comprender las relaciones de causa y efecto. 
  • Atención al detalle: el modelo de explicación paso a paso es similar a los métodos de enseñanza que fomentan la comprensión a través de desgloses detallados, lo que hace que el prompting de CoT sea útil en contextos educativos.
  • Diversidad: la CoT se puede aplicar a una amplia gama de tareas, que incluyen, entre otras, el razonamiento aritmético, el razonamiento de sentido común y la resolución de problemas complejos, lo que demuestra su utilidad flexible.
     
Limitaciones del prompting de la cadena de pensamiento
Estas son algunas limitaciones encontradas durante la adopción de la cadena de pensamientos.
 
  • Control de calidad: la eficacia del prompting de CoT depende en gran medida de la calidad de las indicaciones proporcionadas, lo que requiere ejemplos cuidadosamente elaborados para guiar el modelo con precisión.
  • Alta potencia computacional: generar y procesar múltiples pasos de razonamiento requiere más potencia computacional y tiempo en comparación con el razonamiento estándar de un solo paso. Por lo tanto, es más caro adoptar esta técnica en cualquier organización.
  • Error en el concepto: existe el riesgo de generar vías de razonamiento plausibles pero incorrectas, que lleven a conclusiones engañosas o falsas.
  • Costoso y laborioso: el diseño del prompting de CoT eficaces puede ser más complejo y laborioso, lo que requiere una comprensión profunda del dominio del problema y las capacidades del modelo.
  • Sobreajuste de los modelos: existe el riesgo potencial de que los modelos se sobreajusten al estilo o patrón de razonamiento de las instrucciones, lo que podría reducir sus capacidades de generalización en diversas tareas.
  • Evaluación y validación: aunque la CoT puede mejorar la interpretabilidad y la precisión, medir las mejoras cualitativas en el razonamiento o la comprensión puede ser un desafío. Se debe a la complejidad inherente de la cognición humana y a la naturaleza subjetiva de la evaluación de las expresiones lingüísticas. Sin embargo, se pueden emplear varios enfoques para evaluar la eficacia de las indicaciones de CoT. Por ejemplo, si se comparan las respuestas del modelo con las de un modelo de referencia o con las de expertos humanos, se puede comprender mejor el aumento relativo del rendimiento. Además, el análisis de los pasos intermedios de razonamiento generados por el LLM puede ofrecer información valiosa sobre el proceso de toma de decisiones, incluso si es difícil medir directamente las mejoras en el razonamiento o la comprensión.
     
Explore los modelos de lenguaje de gran tamaño de código abierto: ventajas, riesgos y tipos
Avances en la cadena de pensamiento

La evolución de la cadena de pensamientos (CoT) es un testimonio de los avances sinérgicos en varios dominios, en particular en el procesamiento del lenguaje natural (PLN), el aprendizaje automático y el floreciente campo de la IA generativa. Estos avances no sólo han propulsado a CoT a la vanguardia de la resolución de problemas complejos, sino que también han subrayado su utilidad en un amplio espectro de aplicaciones. Aquí, profundizamos en los desarrollos clave, integrando los términos especificados para pintar una imagen completa del progreso de CoT.

Ingeniería de avisos y el aviso original

Las innovaciones en el prompt engineering han mejorado significativamente la comprensión y la interacción de los modelos con el prompt original, lo que ha dado lugar a rutas de razonamiento más matizadas y contextualizadas. Esta evolución ha sido crucial para perfeccionar la eficacia de CoT.2

Explore cuatro métodos de prompt engineering (12:41)0
Razonamiento simbólico y razonamiento lógico

La integración en tareas de razonamiento simbólico y tareas de razonamiento lógico ha mejorado la capacidad de los modelos para el pensamiento abstracto y la deducción, lo que supone un salto significativo a la hora de abordar los retos basados en la lógica con CoT.7

Por ejemplo, el razonamiento simbólico consiste en resolver ecuaciones matemáticas, como 2 + 3 = 5. En este caso, el problema se descompone en sus partes constituyentes (suma y números), y el modelo deduce la respuesta correcta basándose en sus conocimientos aprendidos y en las reglas de inferencia. El razonamiento lógico, por otro lado, implica sacar conclusiones de premisas o suposiciones, como "Todos los pájaros pueden volar y un pingüino es un pájaro". El modelo determinaría entonces que un pingüino puede volar basándose en la información proporcionada. La integración de las indicaciones de TdC en las tareas de razonamiento simbólico y lógico ha permitido a los alumnos de LLM demostrar una mayor capacidad de pensamiento abstracto y deducción, lo que les ha permitido abordar problemas más complejos y diversos.

Aumento de la creatividad

La aplicación de la IA generativa y las arquitecturas de transformador ha revolucionado la CoT, lo que permite generar rutas de razonamiento sofisticadas que exhiben creatividad y profundidad. Esta sinergia ha ampliado la aplicabilidad de la CoT, influyendo tanto en el ámbito académico como en el práctico.9

Modelos más pequeños y autoconsistencia

Los avances que permiten a los modelos más pequeños participar eficazmente en el razonamiento CoT han democratizado el acceso a capacidades de razonamiento sofisticadas. El enfoque en la autocoherencia dentro de la CoT garantiza la solidez lógica de las rutas generadas, lo que mejora la fiabilidad de las conclusiones extraídas por los modelos.11

Asistente de IA

La integración de la CoT en los chatbots y el aprovechamiento de las técnicas de PLN de última generación ha transformado la IA conversacional, lo que permite a los chatbots llevar a cabo interacciones más complejas que requieren un nivel más profundo de comprensión y competencia en la resolución de problemas.12

Explore los asistentes de IA de IBM

En conjunto, estos avances significan un salto adelante en las capacidades de CoT y la importancia de la integración de chatbots y modelos CoT, destacando su potencial para revolucionar los procesos de toma de decisiones y resolución de problemas impulsados por la IA. Al combinar las capacidades conversacionales de los chatbots con las capacidades de razonamiento avanzado de los modelos CoT, podemos crear sistemas de IA más sofisticados y efectivos capaces de manejar una gama más amplia de tareas y aplicaciones.

Además, la integración de varias aplicaciones y modelos CoT puede mejorar la experiencia general del usuario al permitir que los sistemas de IA comprendan y respondan mejor a las necesidades y preferencias de los usuarios. Al integrar técnicas de procesamiento del lenguaje natural (PLN) en los modelos de CoT, podemos permitir que los chatbots entiendan y respondan a las entradas de los usuarios de una manera más humana, creando experiencias conversacionales más atractivas, intuitivas y efectivas.

Casos de uso para la cadena de pensamientos

La metodología de cadena de pensamientos (CoT), con la capacidad de descomponer problemas complejos en pasos de razonamiento comprensibles, ha encontrado aplicaciones en una amplia gama de campos. Estos casos de uso no sólo demuestran la versatilidad de la CoT sino también su potencial para transformar el modo en que los sistemas abordan las tareas de resolución de problemas y toma de decisiones. A continuación, exploramos varios casos de uso destacados en los que la CoT se ha aplicado de manera eficaz.

Chatbots de servicio de atención al cliente

Los chatbots avanzados utilizan CoT para entender y abordar mejor las consultas de los clientes. Al desglosar el problema de un cliente en partes más pequeñas y manejables, los chatbots pueden ofrecer respuestas más precisas y útiles, mejorar la satisfacción del cliente y reducir la necesidad de intervención humana.

Construya asistentes de IA de servicio de atención al cliente con watsonx assistant
Investigación e innovación

Los investigadores emplean la CoT para estructurar su proceso de pensamiento en la resolución de problemas científicos complejos, facilitando la innovación. Este enfoque estructurado puede acelerar el proceso de descubrimiento y permitir la formulación de hipótesis novedosas.

Creación y resumen de contenidos

En la creación de contenido, la CoT ayuda a generar esquemas o resúmenes estructurados al organizar de forma lógica las ideas y la información, lo que mejora la coherencia y la calidad del contenido escrito.

Vea cómo puede realizar tareas de resumen de textos con watsonx.ai (1:40)
Educación y aprendizaje

La CoT es fundamental en las plataformas tecnológicas educativas, ya que ayuda a generar explicaciones paso a paso para problemas complejos. Esto es particularmente valioso en materias como matemáticas y ciencias, donde comprender el proceso es tan crucial como la respuesta final. Los sistemas basados en CoT pueden guiar a los estudiantes a través de procedimientos de resolución de problemas, mejorando su comprensión y retención.

Explore la experiencia educativa de IA para empresas
Ética de la IA y toma de decisiones

La CoT es crucial para dilucidar el razonamiento detrás de las decisiones impulsadas por la IA, especialmente en escenarios que requieren consideraciones éticas. Al proporcionar una ruta de razonamiento transparente, la CoT garantiza que las decisiones de IA se alineen con los estándares éticos y las normas sociales.

Explore la creación de una IA fiable: IA ética de watsonx.governance

Estos casos de uso subrayan el potencial transformador de la CoT en diversos sectores, ofreciendo una visión de su capacidad para redefinir los procesos de resolución de problemas y toma de decisiones. A medida que la CoT continúa evolucionando, se espera que sus aplicaciones se expandan, integrando aún más esta metodología en el tejido de los avances tecnológicos y sociales.

El prompting de la cadena de pensamiento supone un salto adelante en la capacidad de la IA para llevar a cabo tareas de razonamiento complejas, emulando los procesos cognitivos humanos. Al dilucidar los pasos intermedios de razonamiento, la CoT no solo amplifica la perspicacia de resolución de problemas de los LLM, sino que también mejora la transparencia y la interpretabilidad. A pesar de las limitaciones inherentes, las exploraciones en curso de las variantes y aplicaciones de la CoT continúan ampliando las capacidades de razonamiento de los modelos de IA, lo que presagia futuras mejoras en las funcionalidades cognitivas de la IA.

Recursos relacionados Descubra el LLM Granite de IBM

Granite es la serie insignia de IBM de modelos fundacionales LLM basados en arquitectura del transformador sólo decodificador. Los modelos de lenguaje Granite se entrenan con datos empresariales fiables que abarcan datos de Internet, académicos, de código, legales y financieros.

Guía para líderes de datos

Aprenda a aprovechar las bases de datos adecuadas para aplicaciones, análisis e IA generativa.

IBM watsonx.data es un almacén de datos abierto, híbrido, controlado

Descubra cómo su organización puede escalar las cargas de trabajo de IA para todos sus datos, en cualquier lugar.

Dé el siguiente paso

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para constructores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Explore watsonx.ai Solicite una demostración en directo
Notas a pie de página

1 Boshi Wang, SM (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739. https://doi.org/10.48550/arXiv.2212.10001.

2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36ª Conferencia sobre Sistemas de Procesamiento de la Información Neuronal (NeurIPS 2022).

3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv. abs/2309.15402.

4Omar Shaikh, H. Z. (Diciembre de 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv. abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.

5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv. abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.

6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv. abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.

7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv. abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.

8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv. abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.

9A Vaswani, N. S. (2017). Attention is all you need. Advances in neural information processing systems.

10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open. 2. 216--224.

11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. En Actas de la decimoctava conferencia internacional sobre inteligencia artificial y derecho . 159-168.

12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .