La chaîne de pensées (CoT) reproduit le raisonnement humain, facilitant ainsi la résolution systématique des problèmes grâce à une série cohérente de déductions logiques.
L’incitation à la chaîne de pensée (CoT) est une approche de l’intelligence artificielle qui simule des processus de raisonnement semblables à ceux de l’homme en délimitant des tâches complexes en une séquence d’étapes logiques menant à une résolution finale. Cette méthodologie reflète un aspect fondamental de l’intelligence humaine, en offrant un mécanisme structuré de résolution des problèmes. En d’autres termes, la CoT repose sur la stratégie cognitive consistant à décomposer des problèmes élaborés en pensées intermédiaires gérables qui conduisent séquentiellement à une réponse concluante.1
L’enchaînement d’invites est une forme plus rudimentaire d’invites CoT, où l’IA doit générer des réponses en fonction d’un contexte ou d’une question donnée. En revanche, l’incitation CoT ne se limite pas à la simple génération de réponses cohérentes et pertinentes, car elle exige de l’IA qu’elle élabore un argument logique complet, y compris des préjugés et une conclusion, à partir de rien. Alors que l’enchaînement d’invites vise à affiner les réponses individuelles, l’incitation par CoT vise à créer un argument complet et cohérent sur le plan logique, repoussant ainsi les limites des capacités de résolution de problèmes de l’IA.
Si l’on demande à une IA « De quelle couleur est le ciel ? », elle générera une réponse simple et directe, par exemple « Le ciel est bleu ». Cependant, si on lui demande d’expliquer pourquoi le ciel est bleu à l’aide de l’invite CoT, l’IA définira d’abord ce que le « bleu » représente (une couleur primaire), puis en déduira que le ciel apparaît bleu en raison de l’absorption d’autres couleurs par la couche atmosphérique. Cette réponse démontre la capacité de l’IA à construire un raisonnement logique.
L’incitation à la chaîne de pensée s’appuie sur de grands modèles de langage (LLM) pour articuler une succession d’étapes de raisonnement, orientant ainsi le modèle vers la génération de chaînes de raisonnement analogues pour de nouvelles tâches. Pour ce faire, des prompts basés sur des exemples illustrent le processus de pensée, améliorant ainsi la capacité du modèle à relever des défis complexes en termes de raisonnement.2 Le flux de cette technique d’invite se comprend en résolvant le problème inhérent à un concept mathématique connu, la résolution d’une équation polynomiale.
L’incitation à la chaîne de pensée (CoT) peut aider de manière significative à résoudre des équations polynomiales en guidant un grand modèle de langage (LLM) pour qu’il suive une série d’étapes logiques, décomposant ainsi le processus de résolution des problèmes.2 Examinons comment l’incitation CoT parvient à résoudre une équation polynomiale.
Prenons l’exemple de la résolution d’une équation du second degré.
Prompt d’entrée : Résoudre l’équation du second degré : x2 - 5x + 6 = 0
Lorsque nous soumettons ce prompt au chat IBM watsonx.ai, nous pouvons voir la conversation suivante entre la question humaine et la réponse de l’assistance basée sur l’IA.
L’incitation à la chaîne de pensée (CoT) a donné vie à diverses variantes innovantes, chacune répondant à des défis spécifiques et améliorant les capacités de raisonnement du modèle de manière unique. Ces adaptations permettent non seulement d’étendre l’applicabilité de la CoT à différents domaines, mais aussi d’affiner le processus de résolution de problèmes du modèle.3
La variante de la chaîne de pensée zero-shot exploite les connaissances inhérentes aux modèles pour résoudre les problèmes sans exemples spécifiques ni réglage fin pour la tâche à accomplir. Cette approche est particulièrement utile face à des problèmes nouveaux ou diversifiés où des données d’entraînement sur mesure ne sont pas disponibles.4 Cette approche peut tirer parti des propriétés du prompting standard et de l’apprentissage few-shot.
Par exemple, lorsqu’on répond à la question « Quelle est la capitale d’un pays limitrophe de la France dont le drapeau est rouge et blanc ? », un modèle utilisant la CoT zero-shot s’appuierait sur ses connaissances de la géographie et des drapeaux pour déduire les étapes menant à la Suisse (la réponse), bien qu’elle n’ait pas été entraînée de manière formelle sur de telles requêtes.
L’objectif de la chaîne de pensée automatique (auto-CoT) est de minimiser le travail manuel dans l’élaboration des prompts en automatisant la génération et la sélection de processus de raisonnement efficaces. Cette variante améliore l’évolutivité et l’accessibilité des prompts CoT pour un plus large éventail de tâches et d’utilisateurs.5, 8
Par exemple, pour résoudre un problème mathématique comme « Si vous achetez 5 pommes et que vous en avez déjà 3, combien en avez-vous au total ? », un système auto-CoT peut générer automatiquement des étapes intermédiaires, telles que « Commencer avec 3 pommes » et « Ajouter 5 pommes aux 3 existantes », aboutissant à « Total pommes = 8 », rationalisant le processus de raisonnement sans intervention humaine.
La chaîne de pensée multimodale étend le cadre CoT pour incorporer des entrées provenant de diverses modalités, telles que du texte et des images, ce qui permet au modèle de traiter et d’intégrer divers types d’informations pour des tâches de raisonnement complexes.6
Par exemple, lorsqu’on lui présente une image d’une plage bondée et qu’on lui demande : « Cette plage est-elle susceptible d’être populaire en été ? », un modèle utilisant une CoT multimodale peut analyser des repères visuels (notamment le taux d’occupation de la plage, les conditions météorologiques, etc.) et s’appuyer sur sa compréhension textuelle de la popularité saisonnière pour produire une réponse détaillée, telle que « La plage est bondée, ce qui indique une popularité élevée, qui augmente probablement en été ».
Ces variantes d’incitation à la chaîne de pensée témoignent non seulement de la flexibilité et de l’adaptabilité de l’approche CoT, mais laissent également entrevoir le vaste potentiel de développement dans le domaine des capacités de raisonnement de l’IA et de résolution de problèmes.
L’incitation CoT est une technique puissante pour améliorer les performances des grands modèles de langage (LLM) sur des tâches de raisonnement complexes, offrant des avantages significatifs dans divers domaines, tels que l’amélioration de la précision, de la transparence et des capacités de raisonnement à plusieurs étapes. Cependant, il est essentiel de tenir compte de ses limites, notamment la nécessité d’utiliser des prompts de haute qualité, l’augmentation du coût de calcul, la vulnérabilité aux attaques par exemples contradictoires et les difficultés liées à l’évaluation des améliorations qualitatives dans le raisonnement ou la compréhension. En remédiant à ces limites, les chercheurs et les spécialistes peuvent assurer un déploiement responsable et efficace des incitations CoT dans diverses applications.10
Les utilisateurs peuvent bénéficier d’un certain nombre d’avantages dans le cadre de la chaîne de pensées. En voici quelques-uns :
L’évolution de la chaîne de pensée (CoT) témoigne des avancées synergiques dans plusieurs domaines, notamment le traitement automatique du langage naturel (NLP), le machine learning et le domaine en plein essor de l’IA générative. Ces progrès ont non seulement propulsé la CoT à l’avant-garde de la résolution de problèmes complexes, mais ont également mis en évidence son utilité dans un large éventail d’applications. Ici, nous nous penchons sur les développements clés, en intégrant les termes spécifiés pour brosser un tableau complet des progrès de la CoT.
Les innovations en matière de prompt engineering ont considérablement amélioré la compréhension des modèles et l’interaction avec le prompt d’origine, conduisant à des voies de raisonnement plus nuancées et alignées sur le contexte. Ce développement a été essentiel pour affiner l’efficacité de la CoT.2
Son intégration dans les tâches de raisonnement symbolique et de raisonnement logique a amélioré la capacité de réflexion abstraite et de déduction des modèles, marquant ainsi une avancée significative dans la résolution des défis logiques grâce à la CoT.7
Par exemple, le raisonnement symbolique consiste à résoudre des équations mathématiques telles que 2 + 3 = 5. Dans ce cas, le problème est décomposé en ses parties constitutives (addition et nombres), et le modèle déduit la bonne réponse en fonction de ses connaissances acquises et de ses règles d’inférence. Le raisonnement logique, en revanche, consiste à tirer des conclusions à partir de prémisses ou d’hypothèses, telles que « Tous les oiseaux peuvent voler et un pingouin est un oiseau ». Le modèle déterminerait alors qu’un pingouin peut voler en fonction des informations fournies. L’intégration de l’incitation par CoT dans les tâches de raisonnement symbolique et de raisonnement logique a permis aux LLM de démontrer des capacités améliorées de pensée abstraite et de déduction, leur permettant de s’attaquer à des problèmes plus complexes et plus divers.
L’application de l’IA générative et des architectures transformatrices a révolutionné la CoT, permettant de générer des cheminements de raisonnement sophistiqués qui font preuve de créativité et de profondeur. Cette synergie a élargi l’applicabilité de la CoT, influençant à la fois les domaines universitaires et pratiques.9
Les progrès qui permettent aux petits modèles de s’engager efficacement dans le raisonnement CoT ont démocratisé l’accès à des capacités de raisonnement plus sophistiquées. L’accent mis sur la cohérence propre dans la CoT garantit l’intégrité logique des cheminements générés, améliorant ainsi la fiabilité des conclusions tirées par les modèles.11
L’intégration de la CoT dans les chatbots et l’utilisation de techniques NLP de pointe ont transformé l’IA conversationnelle, permettant aux chatbots de mener des interactions plus complexes qui nécessitent un niveau de compréhension et de résolution de problèmes plus approfondi.12
Ces avancées constituent collectivement un bond en avant dans les capacités de la CoT et l’importance de l’intégration des chatbots et des modèles CoT, soulignant leur capacité à révolutionner la prise de décision et les processus de résolution de problèmes pilotés par l’IA. En combinant les capacités conversationnelles des chatbots avec les capacités de raisonnement avancées des modèles CoT, nous pouvons créer des systèmes d’IA plus sophistiqués et plus efficaces, capables de gérer un plus large éventail de tâches et d’applications.
En outre, l’intégration de diverses applications et divers modèles CoT peut améliorer l’expérience globale de l’utilisateur en permettant aux systèmes d’IA de mieux comprendre et répondre aux besoins et aux préférences des utilisateurs. En intégrant des techniques de traitement automatique du langage naturel (NLP) dans les modèles CoT, nous pouvons permettre aux chatbots de comprendre et de répondre aux entrées des utilisateurs d’une manière plus proche de celle de l’humain, créant ainsi des expériences conversationnelles plus engageantes, intuitives et efficaces.
La méthodologie de la chaîne de pensées (CoT), avec sa capacité à décomposer les problèmes complexes en étapes de raisonnement compréhensibles, a trouvé des applications dans un large éventail de domaines. Ces cas d’utilisation démontrent non seulement la polyvalence de la CoT, mais aussi sa capacité à transformer la façon dont les systèmes abordent les tâches de résolution de problèmes et de prise de décision. Vous trouverez ci-dessous plusieurs cas d’utilisation importants où la CoT a été appliquée de manière efficace.
Les chatbots avancés utilisent la CoT pour mieux comprendre et répondre aux requêtes des clients. En décomposant le problème d’un client en parties plus petites et gérables, les chatbots peuvent fournir des réponses plus précises et plus utiles, améliorant ainsi la satisfaction du client et réduisant le besoin d’intervention humaine.
Les chercheurs utilisent la CoT pour structurer leur processus de pensée dans la résolution de problèmes scientifiques complexes, facilitant ainsi l’innovation. Cette approche structurée peut accélérer le processus de découverte et permettre la formulation de nouvelles hypothèses.
Dans la création de contenu, la CoT aide à générer des schémas ou des résumés structurés en organisant logiquement les pensées et les informations, améliorant ainsi la cohérence et la qualité du contenu rédactionnel.
La CoT joue un rôle essentiel dans les plateformes technologiques éducatives, contribuant à la génération d’explications étape par étape pour des problèmes complexes. Cela est particulièrement utile dans des sujets tels que les mathématiques et les sciences, où la compréhension du processus est aussi cruciale que la réponse finale. Les systèmes basés sur la CoT peuvent guider les étudiants dans les procédures de résolution de problèmes, améliorant ainsi leur compréhension et leur rétention.
La CoT est essentielle pour comprendre le raisonnement soutenant les décisions pilotées par l’IA, en particulier dans les scénarios nécessitant des considérations éthiques. En fournissant un parcours de raisonnement transparent, la CoT garantit que les décisions de l’IA sont conformes aux normes éthiques et sociétales.
Ces cas d’utilisation soulignent le potentiel de transformation de la CoT dans divers secteurs, offrant un aperçu de sa capacité à redéfinir les processus de résolution de problèmes et de prise de décision. Au fur et à mesure de l’évolution de la CoT, ses applications devraient se développer, intégrer davantage cette méthodologie dans le réseau des avancées technologiques et sociétales.
L’incitation par chaîne de pensées constitue un bond en avant dans la capacité de l’IA à entreprendre des tâches de raisonnement complexes, imitant les processus cognitifs humains. En élucidant les étapes intermédiaires du raisonnement, la CoT amplifie non seulement le sens de la résolution de problèmes des LLM, mais améliore également la transparence et l’interprétabilité. Malgré des limites intrinsèques, les explorations en cours des variantes et des applications de la CoT continuent d’étendre les capacités de raisonnement des modèles IA, annonçant de futures améliorations dans les fonctionnalités cognitives de l’IA.
Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.
Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.
Découvrez comment les PDG peuvent trouver un équilibre entre la valeur que l’IA générative peut créer, l’investissement qu’elle exige et les risques qu’elle introduit.
Apprenez des concepts fondamentaux et développez vos compétences grâce à des ateliers pratiques, à des cours, à des projets guidés, à des essais et à d’autres ressources.
Découvrez comment intégrer en toute confiance l’IA générative et le machine learning dans votre entreprise.
Vous voulez obtenir un meilleur retour sur vos investissements dans l’IA ? Découvrez comment la mise à l’échelle de l’IA générative dans des domaines clés favorise le changement en aidant vos meilleurs éléments à créer et à fournir de nouvelles solutions innovantes.
1 Boshi Wang, S. M. (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739, https://doi.org/10.48550/arXiv.2212.10001.
2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36th Conference on Neural Information Processing Systems (NeurIPS 2022).
3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv, abs/2309.15402.
4Omar Shaikh, H. Z. (décembre 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv, abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.
5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv, abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.
6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv, abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.
7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv, abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.
8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv, abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.
9A Vaswani, N. S. (2017). Attention is all you need. Advances in neural information processing systems.
10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open, 2, 216--224.
11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. In Proceedings of the eighteenth international conference on artificial intelligence and law, 159-168.
12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com