My IBM Se connecter S’abonner

Qu’est-ce que la chaîne de pensées (CoT) ?

12 août 2024

Auteurs

Vrunda Gadesha

AI Advocate | Technical Content Author

Eda Kavlakoglu

Program Manager

La chaîne de pensées (CoT) reproduit le raisonnement humain, facilitant ainsi la résolution systématique des problèmes grâce à une série cohérente de déductions logiques.

L’incitation à la chaîne de pensée (CoT) est une approche de l’intelligence artificielle qui simule des processus de raisonnement semblables à ceux de l’homme en délimitant des tâches complexes en une séquence d’étapes logiques menant à une résolution finale. Cette méthodologie reflète un aspect fondamental de l’intelligence humaine, en offrant un mécanisme structuré de résolution des problèmes. En d’autres termes, la CoT repose sur la stratégie cognitive consistant à décomposer des problèmes élaborés en pensées intermédiaires gérables qui conduisent séquentiellement à une réponse concluante.1

Différence entre enchaînement d’invites et chaîne de pensées (CoT)

L’enchaînement d’invites est une forme plus rudimentaire d’invites CoT, où l’IA doit générer des réponses en fonction d’un contexte ou d’une question donnée. En revanche, l’incitation CoT ne se limite pas à la simple génération de réponses cohérentes et pertinentes, car elle exige de l’IA qu’elle élabore un argument logique complet, y compris des préjugés et une conclusion, à partir de rien. Alors que l’enchaînement d’invites vise à affiner les réponses individuelles, l’incitation par CoT vise à créer un argument complet et cohérent sur le plan logique, repoussant ainsi les limites des capacités de résolution de problèmes de l’IA.

Si l’on demande à une IA « De quelle couleur est le ciel ? », elle générera une réponse simple et directe, par exemple « Le ciel est bleu ». Cependant, si on lui demande d’expliquer pourquoi le ciel est bleu à l’aide de l’invite CoT, l’IA définira d’abord ce que le « bleu » représente (une couleur primaire), puis en déduira que le ciel apparaît bleu en raison de l’absorption d’autres couleurs par la couche atmosphérique. Cette réponse démontre la capacité de l’IA à construire un raisonnement logique.

Comment fonctionne la chaîne de pensées ?

L’incitation à la chaîne de pensée s’appuie sur de grands modèles de langage (LLM) pour articuler une succession d’étapes de raisonnement, orientant ainsi le modèle vers la génération de chaînes de raisonnement analogues pour de nouvelles tâches. Pour ce faire, des prompts basés sur des exemples illustrent le processus de pensée, améliorant ainsi la capacité du modèle à relever des défis complexes en termes de raisonnement.2 Le flux de cette technique d’invite se comprend en résolvant le problème inhérent à un concept mathématique connu, la résolution d’une équation polynomiale.

Exemple : comment l’apprentissage de la chaîne de pensées fonctionne-t-il pour résoudre les équations polynomiales ?

L’incitation à la chaîne de pensée (CoT) peut aider de manière significative à résoudre des équations polynomiales en guidant un grand modèle de langage (LLM) pour qu’il suive une série d’étapes logiques, décomposant ainsi le processus de résolution des problèmes.2 Examinons comment l’incitation CoT parvient à résoudre une équation polynomiale.

Prenons l’exemple de la résolution d’une équation du second degré.

Prompt d’entrée : Résoudre l’équation du second degré : x2 - 5x + 6 = 0

Lorsque nous soumettons ce prompt au chat IBM watsonx.ai, nous pouvons voir la conversation suivante entre la question humaine et la réponse de l’assistance basée sur l’IA.

Pour générer ce type de résultat, les principes fondamentaux de la CoT fonctionnent comme illustré dans l’image ci-dessous. La réponse finale de la chaîne de pensées sera « Les solutions de l’équation x2 – 5x + 6 = 0 sont x = 3 et x = 2 »

Variantes de la chaîne de pensées

L’incitation à la chaîne de pensée (CoT) a donné vie à diverses variantes innovantes, chacune répondant à des défis spécifiques et améliorant les capacités de raisonnement du modèle de manière unique. Ces adaptations permettent non seulement d’étendre l’applicabilité de la CoT à différents domaines, mais aussi d’affiner le processus de résolution de problèmes du modèle.3

Chaîne de pensées zero-shot

La variante de la chaîne de pensée zero-shot exploite les connaissances inhérentes aux modèles pour résoudre les problèmes sans exemples spécifiques ni réglage fin pour la tâche à accomplir. Cette approche est particulièrement utile face à des problèmes nouveaux ou diversifiés où des données d’entraînement sur mesure ne sont pas disponibles.4 Cette approche peut tirer parti des propriétés du prompting standard et de l’apprentissage few-shot.

Par exemple, lorsqu’on répond à la question « Quelle est la capitale d’un pays limitrophe de la France dont le drapeau est rouge et blanc ? », un modèle utilisant la CoT zero-shot s’appuierait sur ses connaissances de la géographie et des drapeaux pour déduire les étapes menant à la Suisse (la réponse), bien qu’elle n’ait pas été entraînée de manière formelle sur de telles requêtes.

Chaîne de pensées automatique

L’objectif de la chaîne de pensée automatique (auto-CoT) est de minimiser le travail manuel dans l’élaboration des prompts en automatisant la génération et la sélection de processus de raisonnement efficaces. Cette variante améliore l’évolutivité et l’accessibilité des prompts CoT pour un plus large éventail de tâches et d’utilisateurs.5, 8

Par exemple, pour résoudre un problème mathématique comme « Si vous achetez 5 pommes et que vous en avez déjà 3, combien en avez-vous au total ? », un système auto-CoT peut générer automatiquement des étapes intermédiaires, telles que « Commencer avec 3 pommes » et « Ajouter 5 pommes aux 3 existantes », aboutissant à « Total pommes = 8 », rationalisant le processus de raisonnement sans intervention humaine.

Chaîne de pensées multimodale

La chaîne de pensée multimodale étend le cadre CoT pour incorporer des entrées provenant de diverses modalités, telles que du texte et des images, ce qui permet au modèle de traiter et d’intégrer divers types d’informations pour des tâches de raisonnement complexes.6

Par exemple, lorsqu’on lui présente une image d’une plage bondée et qu’on lui demande : « Cette plage est-elle susceptible d’être populaire en été ? », un modèle utilisant une CoT multimodale peut analyser des repères visuels (notamment le taux d’occupation de la plage, les conditions météorologiques, etc.) et s’appuyer sur sa compréhension textuelle de la popularité saisonnière pour produire une réponse détaillée, telle que « La plage est bondée, ce qui indique une popularité élevée, qui augmente probablement en été ».

Ces variantes d’incitation à la chaîne de pensée témoignent non seulement de la flexibilité et de l’adaptabilité de l’approche CoT, mais laissent également entrevoir le vaste potentiel de développement dans le domaine des capacités de raisonnement de l’IA et de résolution de problèmes.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets.

Avantages et limites

L’incitation CoT est une technique puissante pour améliorer les performances des grands modèles de langage (LLM) sur des tâches de raisonnement complexes, offrant des avantages significatifs dans divers domaines, tels que l’amélioration de la précision, de la transparence et des capacités de raisonnement à plusieurs étapes. Cependant, il est essentiel de tenir compte de ses limites, notamment la nécessité d’utiliser des prompts de haute qualité, l’augmentation du coût de calcul, la vulnérabilité aux attaques par exemples contradictoires et les difficultés liées à l’évaluation des améliorations qualitatives dans le raisonnement ou la compréhension. En remédiant à ces limites, les chercheurs et les spécialistes peuvent assurer un déploiement responsable et efficace des incitations CoT dans diverses applications.10

Avantages de l’incitation par chaine de pensées

Les utilisateurs peuvent bénéficier d’un certain nombre d’avantages dans le cadre de la chaîne de pensées. En voici quelques-uns :

  • Amélioration des résultats des prompts : l’incitation à la chaîne de pensée améliore les performances des LLM sur les tâches de raisonnement complexes en les décomposant en étapes plus simples et logiques.
  • Transparence et compréhension : la génération d’étapes de raisonnement intermédiaires offre une transparence sur la manière dont le modèle arrive à ses conclusions, ce qui rend le processus de prise de décision plus compréhensible pour les utilisateurs.
  • Raisonnement en plusieurs étapes : en abordant systématiquement chaque composante d’un problème, l’incitation par chaîne de pensées conduit souvent à des réponses plus précises et plus fiables, en particulier dans les tâches nécessitant un raisonnement en plusieurs étapes. Le raisonnement en plusieurs étapes fait référence à la capacité d’effectuer des opérations logiques complexes en les décomposant en étapes plus petites et séquentielles. Cette compétence cognitive est essentielle pour résoudre des problèmes complexes, prendre des décisions et comprendre les relations de cause à effet. 
  • Le souci du détail : le modèle d’explication étape par étape s’apparente à des méthodes d’enseignement qui encouragent la compréhension par le biais de ventilations détaillées, ce qui rend l’incitation par CoT utile dans des contextes éducatifs.
  • Diversité : la CoT peut être appliquée à un large éventail de tâches, y compris, mais sans s’y limiter, au raisonnement arithmétique, au raisonnement de bon sens et à la résolution de problèmes complexes, démontrant sa souplesse d’utilisation.

Limites de l’incitation par chaîne de pensées

Voici quelques limitations rencontrées lors de l’adoption de la chaîne de pensée.
  • Contrôle qualité : l’efficacité des incitations par CoT dépend largement de la qualité des invites fournies, ce qui nécessite des exemples soigneusement conçus pour orienter le modèle avec précision.
  • Puissance de calcul élevée : la génération et le traitement de plusieurs étapes de raisonnement nécessitent plus de puissance de calcul et de temps que les incitations standard en une seule étape. L’adoption de cette technique est donc plus coûteuse quel que soit le type d’organisation.
  • Concept erroné : il existe un risque de générer des chemins de raisonnement plausibles mais incorrects, ce qui conduit à des conclusions trompeuses ou erronées.
  • Coûts et délais : une conception d'incitations par CoT efficace peut être plus complexe et plus laborieuse, nécessitant une compréhension approfondie du domaine du problème et des capacités du modèle.
  • Surajustement des modèles : il existe un risque que les modèles soient trop adaptés au style ou au schéma de raisonnement des instructions, ce qui pourrait réduire leurs capacités de généralisation pour d'autres tâches.
  • Évaluation et validation : même si la CoT peut améliorer l’interprétabilité et la précision, il peut être difficile de mesurer les améliorations qualitatives en matière de raisonnement ou de compréhension. Cela est dû à la complexité inhérente de la cognition humaine et à la nature subjective de l’évaluation des expressions linguistiques. Cependant, plusieurs approches peuvent être utilisées pour évaluer l’efficacité de l’incitation CoT. Par exemple, la comparaison des réponses du modèle à celles d’un modèle de référence ou d’experts humains peut fournir des informations sur les gains de performance relatifs. De plus, l’analyse des étapes de raisonnement intermédiaires générées par le LLM peut offrir des informations précieuses sur le processus de prise de décision, même s’il est difficile de mesurer directement les améliorations dans le raisonnement ou la compréhension.
Groupe d’experts | Podcast

Décryptage de l’IA : Tour d’horizon hebdomadaire

Rejoignez notre panel d’ingénieurs, de chercheurs, de chefs de produits et autres spécialistes de premier plan pour connaître l’essentiel de l'actualité et des dernières tendances dans le domaine de l’IA.

Avancées dans la chaîne de pensées

L’évolution de la chaîne de pensée (CoT) témoigne des avancées synergiques dans plusieurs domaines, notamment le traitement automatique du langage naturel (NLP), le machine learning et le domaine en plein essor de l’IA générative. Ces progrès ont non seulement propulsé la CoT à l’avant-garde de la résolution de problèmes complexes, mais ont également mis en évidence son utilité dans un large éventail d’applications. Ici, nous nous penchons sur les développements clés, en intégrant les termes spécifiés pour brosser un tableau complet des progrès de la CoT.

Ingénierie rapide et invite originelle

Les innovations en matière de prompt engineering ont considérablement amélioré la compréhension des modèles et l’interaction avec le prompt d’origine, conduisant à des voies de raisonnement plus nuancées et alignées sur le contexte. Ce développement a été essentiel pour affiner l’efficacité de la CoT.2

Raisonnement symbolique et raisonnement logique

Son intégration dans les tâches de raisonnement symbolique et de raisonnement logique a amélioré la capacité de réflexion abstraite et de déduction des modèles, marquant ainsi une avancée significative dans la résolution des défis logiques grâce à la CoT.7

Par exemple, le raisonnement symbolique consiste à résoudre des équations mathématiques telles que 2 + 3 = 5. Dans ce cas, le problème est décomposé en ses parties constitutives (addition et nombres), et le modèle déduit la bonne réponse en fonction de ses connaissances acquises et de ses règles d’inférence. Le raisonnement logique, en revanche, consiste à tirer des conclusions à partir de prémisses ou d’hypothèses, telles que « Tous les oiseaux peuvent voler et un pingouin est un oiseau ». Le modèle déterminerait alors qu’un pingouin peut voler en fonction des informations fournies. L’intégration de l’incitation par CoT dans les tâches de raisonnement symbolique et de raisonnement logique a permis aux LLM de démontrer des capacités améliorées de pensée abstraite et de déduction, leur permettant de s’attaquer à des problèmes plus complexes et plus divers.

Créativité décuplée

L’application de l’IA générative et des architectures transformatrices a révolutionné la CoT, permettant de générer des cheminements de raisonnement sophistiqués qui font preuve de créativité et de profondeur. Cette synergie a élargi l’applicabilité de la CoT, influençant à la fois les domaines universitaires et pratiques.9

Modèles plus petits et cohérence propre

Les progrès qui permettent aux petits modèles de s’engager efficacement dans le raisonnement CoT ont démocratisé l’accès à des capacités de raisonnement plus sophistiquées. L’accent mis sur la cohérence propre dans la CoT garantit l’intégrité logique des cheminements générés, améliorant ainsi la fiabilité des conclusions tirées par les modèles.11

Assistant IA

L’intégration de la CoT dans les chatbots et l’utilisation de techniques NLP de pointe ont transformé l’IA conversationnelle, permettant aux chatbots de mener des interactions plus complexes qui nécessitent un niveau de compréhension et de résolution de problèmes plus approfondi.12

Ces avancées constituent collectivement un bond en avant dans les capacités de la CoT et l’importance de l’intégration des chatbots et des modèles CoT, soulignant leur capacité à révolutionner la prise de décision et les processus de résolution de problèmes pilotés par l’IA. En combinant les capacités conversationnelles des chatbots avec les capacités de raisonnement avancées des modèles CoT, nous pouvons créer des systèmes d’IA plus sophistiqués et plus efficaces, capables de gérer un plus large éventail de tâches et d’applications.

En outre, l’intégration de diverses applications et divers modèles CoT peut améliorer l’expérience globale de l’utilisateur en permettant aux systèmes d’IA de mieux comprendre et répondre aux besoins et aux préférences des utilisateurs. En intégrant des techniques de traitement automatique du langage naturel (NLP) dans les modèles CoT, nous pouvons permettre aux chatbots de comprendre et de répondre aux entrées des utilisateurs d’une manière plus proche de celle de l’humain, créant ainsi des expériences conversationnelles plus engageantes, intuitives et efficaces.

Cas d’utilisation de la chaîne de pensées

La méthodologie de la chaîne de pensées (CoT), avec sa capacité à décomposer les problèmes complexes en étapes de raisonnement compréhensibles, a trouvé des applications dans un large éventail de domaines. Ces cas d’utilisation démontrent non seulement la polyvalence de la CoT, mais aussi sa capacité à transformer la façon dont les systèmes abordent les tâches de résolution de problèmes et de prise de décision. Vous trouverez ci-dessous plusieurs cas d’utilisation importants où la CoT a été appliquée de manière efficace.

Chatbots des services client

Les chatbots avancés utilisent la CoT pour mieux comprendre et répondre aux requêtes des clients. En décomposant le problème d’un client en parties plus petites et gérables, les chatbots peuvent fournir des réponses plus précises et plus utiles, améliorant ainsi la satisfaction du client et réduisant le besoin d’intervention humaine.

Recherche et innovation

Les chercheurs utilisent la CoT pour structurer leur processus de pensée dans la résolution de problèmes scientifiques complexes, facilitant ainsi l’innovation. Cette approche structurée peut accélérer le processus de découverte et permettre la formulation de nouvelles hypothèses.

Création et synthèse de contenu

Dans la création de contenu, la CoT aide à générer des schémas ou des résumés structurés en organisant logiquement les pensées et les informations, améliorant ainsi la cohérence et la qualité du contenu rédactionnel.

Formation et apprentissage

La CoT joue un rôle essentiel dans les plateformes technologiques éducatives, contribuant à la génération d’explications étape par étape pour des problèmes complexes. Cela est particulièrement utile dans des sujets tels que les mathématiques et les sciences, où la compréhension du processus est aussi cruciale que la réponse finale. Les systèmes basés sur la CoT peuvent guider les étudiants dans les procédures de résolution de problèmes, améliorant ainsi leur compréhension et leur rétention.

IA éthique et prise de décision

La CoT est essentielle pour comprendre le raisonnement soutenant les décisions pilotées par l’IA, en particulier dans les scénarios nécessitant des considérations éthiques. En fournissant un parcours de raisonnement transparent, la CoT garantit que les décisions de l’IA sont conformes aux normes éthiques et sociétales.

Ces cas d’utilisation soulignent le potentiel de transformation de la CoT dans divers secteurs, offrant un aperçu de sa capacité à redéfinir les processus de résolution de problèmes et de prise de décision. Au fur et à mesure de l’évolution de la CoT, ses applications devraient se développer, intégrer davantage cette méthodologie dans le réseau des avancées technologiques et sociétales.

L’incitation par chaîne de pensées constitue un bond en avant dans la capacité de l’IA à entreprendre des tâches de raisonnement complexes, imitant les processus cognitifs humains. En élucidant les étapes intermédiaires du raisonnement, la CoT amplifie non seulement le sens de la résolution de problèmes des LLM, mais améliore également la transparence et l’interprétabilité. Malgré des limites intrinsèques, les explorations en cours des variantes et des applications de la CoT continuent d’étendre les capacités de raisonnement des modèles IA, annonçant de futures améliorations dans les fonctionnalités cognitives de l’IA.

Solutions connexes

Solutions connexes

IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Services d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct
Notes de bas de page

1 Boshi Wang, S. M. (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739, https://doi.org/10.48550/arXiv.2212.10001.

2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36th Conference on Neural Information Processing Systems (NeurIPS 2022).

3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv, abs/2309.15402.

4Omar Shaikh, H. Z. (décembre 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv, abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.

5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv, abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.

6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv, abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.

7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv, abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.

8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv, abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.

9A Vaswani, N. S. (2017). Attention is all you need. Advances in neural information processing systems.

10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open, 2, 216--224.

11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. In Proceedings of the eighteenth international conference on artificial intelligence and law, 159-168.

12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .