En intelligence artificielle (IA), le raisonnement est le mécanisme qui consiste à utiliser les informations disponibles pour générer des prédictions, faire des inférences et tirer des conclusions. Il s’agit de représenter les données sous une forme qu’une machine peut traiter et comprendre, puis d’appliquer une logique pour parvenir à une décision.
Les dernières versions des modèles de raisonnement, notamment DeepSeek-R1, Gemini 2.0 Flash Thinking de Google, Granite 3.2 d’IBM et les séries o1 et o3-mini d’OpenAI, ont mis le raisonnement de l’IA sous les projecteurs. L’IA a évolué pour passer du simple suivi de règles prédéfinies à l’intégration d’une certaine forme de raisonnement. Et avec l’adoption croissante de l’IA , le rôle de la technologie change.
En plus de générer des réponses, les modèles de raisonnement actuels sont capables de réfléchir à leur analyse et de la décomposer étape par étape. Cela permet à l’IA de résoudre des problèmes de plus en plus complexes et d’orienter l’utilisateur vers des actions plus efficaces.
Le raisonnement IA n’est toutefois pas une capacité récente ; elle a été programmée dans l’IA depuis ses débuts, selon Francesca Rossi, chercheuse IBM. Les compétences de raisonnement préprogrammées apportaient aux prédictions des modèles d’IA un degré de certitude auquel on pouvait se fier. Mais les nouveaux modèles d’IA peuvent manquer de certitude et de fiabilité en raison de leurs capacités de raisonnement plus dynamiques, ajoute Mme Rossi.
Si le raisonnement de l’IA vise à imiter le raisonnement humain, on en est encore loin, selon Francesca Rossi.
Le raisonnement dans l’IA est décrit comme un système qui comporte deux composants principaux :
● Base de connaissances
● Moteur d’inférence
La base de connaissances est l’épine dorsale des systèmes de raisonnement IA. Elle contient des graphes de connaissances, des ontologies, des réseaux sémantiques et d’autres modèles de représentation des connaissances. Ces formes structurées cartographient les entités du monde réel (concepts, informations spécifiques à un domaine, événements, faits, objets, relations, règles, situations) au sein d’une structure que les modèles d’IA peuvent traiter et comprendre.
Le moteur d’inférence est le cerveau du système de raisonnement IA. Il est alimenté par des modèles de machine learning entraînés. Le moteur d’inférence met en œuvre la logique et les méthodes de raisonnement nécessaires pour analyser les données de la base de connaissances et prendre une décision.
Pour illustrer le fonctionnement des systèmes de raisonnement IA, prenons l’exemple d’un robot nettoyeur de sol autonome. Sa base de connaissances contient des informations sur les différents types de sols et sur le type de nettoyage requis. Les algorithmes de machine learning du robot ont également été entraînés à reconnaître et à classer chaque type de sol en fonction de cette base de connaissances.
Les robots de nettoyage reçoivent et traitent les données d’entrée, dont les images et les données de capteurs. Ils s’appuient ensuite sur leur base de connaissances et sur leur entraînement pour appliquer la technique de raisonnement appropriée afin de décider en temps réel de son action de nettoyage (par exemple, passer l'aspirateur et la serpillère sur les surfaces en bois, en carrelage et en vinyle, mais se contenter de seulement aspirer la moquette).
Les systèmes d’IA mettent en œuvre différentes stratégies de raisonnement en fonction de leurs jeux de données et de l’application cible. Ils associent généralement quelques-unes des approches suivantes :
● Raisonnement abductif
● Raisonnement agentique
● Raisonnement analogique
● Raisonnement de bon sens
● Raisonnement déductif
● Raisonnement approximatif
● Raisonnement inductif
● Raisonnement neuro-symbolique
● Raisonnement probabiliste
● Raisonnement spatial
● Raisonnement temporel
Le raisonnement abductif vise à formuler la conclusion la plus probable en fonction des observations actuellement disponibles. Dans le domaine de la santé, par exemple, les algorithmes de diagnostic s’appuient sur le raisonnement abductif pour identifier la maladie qui correspond le mieux à un ensemble de symptômes, selon des critères prédéfinis dans une base de connaissances.
Le raisonnement agentique permet aux agents IA de réaliser des tâches de manière autonome. Les agents simples s’appuient sur des règles prédéfinies, tandis que les agents basés sur des modèles utilisent leur perception et leur mémoire actuelles, en plus d’un ensemble de règles, pour fonctionner dans différents environnements. Les agents axés sur les objectifs planifient et choisissent les actions qui leur permettent d’atteindre un objectif. Les agents axés sur l’utilité ont eux aussi un objectif à atteindre, mais ils prennent également en compte la qualité du résultat.
Les deux paradigmes de raisonnement les plus courants pour l’IA agentique sont ReAct (Reasoning and Action) et ReWOO (Reasoning WithOut Observation). ReAct emploie une stratégie de réflexion-action-observation pour résoudre les problèmes étape par étape et améliorer les réponses de manière itérative. ReWOO planifie avant de formuler une réponse.
Le raisonnement analogique transfère les connaissances d’une situation à une autre. Cette méthodologie de raisonnement s’appuie sur des analogies pour trouver des parallèles ou des similitudes entre les scénarios antérieurs et actuels. Les études indiquent que les modèles d’IA, en particulier les transformers génératifs pré-entraînés (GPT), ont encore des difficultés avec le raisonnement analogique.1
Le raisonnement de bon sens utilise des connaissances générales sur le monde et des connaissances pratiques sur la vie quotidienne pour prendre des décisions. Les grands modèles de langage (LLM), par exemple, peuvent déduire des modèles à partir du langage naturel qui reflètent le raisonnement de bon sens.
Le raisonnement déductif consiste à tirer des conclusions spécifiques à partir d’hypothèses ou de faits généraux. Autrement dit, si l’hypothèse est vraie, la conclusion doit l’être aussi.
Les systèmes experts font partie des systèmes d’IA qui s’appuient sur le raisonnement déductif. Ils sont conçus pour imiter les capacités de raisonnement des experts humains. Ces systèmes sont équipés d'une base de connaissances qui contient des informations et des règles portant sur un domaine particulier.
Les systèmes basés sur des règles, qui sont un sous-ensemble de systèmes experts, s’appuient sur des règles si-alors pour guider leur processus de raisonnement. Ils peuvent être mis en œuvre dans le domaine de la finance, par exemple, pour faciliter la détection des fraudes.
Le raisonnement approximatif permet des degrés de vérité à la place des valeurs binaires strictes « vrai » ou « faux ». Il permet de gérer l'imprécision.
Par exemple, dans l’analyse des sentiments, le raisonnement approximatif permet d’évaluer le texte et de déterminer s’il véhicule un sentiment positif, négatif ou neutre.
Contrairement au raisonnement déductif, le raisonnement inductif s’appuie sur des observations spécifiques pour généraliser. Ce type de raisonnement est généralement mis en œuvre dans les techniques de machine learning telles que l’apprentissage supervisé, qui consiste à entraîner les modèles d’IA à prévoir les sorties en fonction de données d’entraînement étiquetées. Les réseaux de neurones exploitent également le raisonnement inductif pour identifier les schémas et les relations au sein des jeux de données.
Le raisonnement symbolique consiste à représenter les concepts et les objets sous forme de symboles, et non de chiffres, et à les manipuler selon des règles logiques. L’IA neuro-symbolique associe capacités d’apprentissage profond des réseaux de neurones au raisonnement symbolique pour améliorer la prise de décision. Il s’agit d’une avancée assez récente, qui n’est pas encore un domaine de recherche émergent.
Cette méthode de raisonnement, qui évalue la probabilité statistique des différents résultats, facilite la prise de décision dans des conditions ambiguës ou incertaines (par exemple, lorsque les données sont limitées, ou lorsque différents résultats variés sont possibles et doivent être évalués).
Les outils de classification naïve bayésienne, par exemple, s’appuient sur les principes de probabilité pour assurer les tâches de classification. Le raisonnement probabiliste est également utilisé pour les tâches de traitement automatique du langage naturel (TAL) et les applications d’IA générative.
Le raisonnement spatial permet aux systèmes intelligents tels que les véhicules autonomes et les robots d’appréhender les espaces tridimensionnels. Ce type de raisonnement peut intégrer la modélisation géométrique pour faciliter la compréhension des formes et des surfaces, ainsi que des algorithmes de recherche de chemin pour déterminer l’itinéraire le plus court ou optimal pour se déplacer efficacement dans un environnement dynamique.
Le raisonnement spatial peut également intégrer des réseaux de neurones convolutifs (CNN), qui utilisent des données tridimensionnelles pour réaliser des tâches de classification d’images et de reconnaissance d’objets.
Grâce au raisonnement temporel, les systèmes d’IA apprennent à traiter les données temporelles et à comprendre les séquences d’événements, afin de formuler des plans, de programmer des tâches ou d’établir des prévisions.
Les réseaux de neurones récurrents (RNN),par exemple, sont entraînés sur des données séquentielles ou sur des données de séries chronologiques pour tirer des conclusions logiques à propos des résultats futurs. On peut utiliser les RNN pour prévoir les ventes, prédire la performance du marché boursier ou générer des prévisions météorologiques.
Newsletter sectorielle
Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
Si le raisonnement peut donner lieu à des applications d'IA plus puissantes, il a toutefois ses limites. Voici quelques défis liés aux systèmes de raisonnement IA :
● Biais
● Coûts de calcul
● Interprétabilité
Les biais présents dans les données d’entraînement peuvent se répercuter sur les systèmes de raisonnement IA. Diversifier les sources de données permet de réduire les biais. En outre, intégrer la supervision humaine, appliquer les principes éthiques de l’IA dans le développement algorithmique et mettre en place une gouvernance de l’IA est indispensable pour s’assurer que ces systèmes de raisonnement parviennent à des décisions éthiques et équitables.
Les tâches de raisonnement complexes demandent une puissance de calcul importante, ce qui rend ces systèmes difficiles à dimensionner. Les entreprises doivent optimiser leurs modèles d’IA pour concilier précision et efficacité. Elles doivent également être prêtes à investir dans les ressources nécessaires pour développer, entraîner et déployer ces systèmes de raisonnement.
Les systèmes de raisonnement par IA, en particulier les plus complexes, sont souvent des modèles de type boîte noire. Ils manquent de transparence quant à leurs techniques de raisonnement et leurs processus décisionnels. Plusieurs méthodes peuvent aider à établir l’interprétabilité des modèles d’IA, et la création de systèmes interprétables peut contribuer à renforcer la confiance des utilisateurs.
Le raisonnement IA peut s’avérer très utile en entreprise, puisqu’il facilite la résolution des problèmes et l’automatisation des tâches complexes. Voici quelques exemples de secteurs auxquels les systèmes de raisonnement IA profiteraient tout particulièrement :
● Service client
● Cybersécurité
● Santé
● Industrie manufacturière
● Robotique
L’IA conversationnelle (par exemple, les chatbots et les agents conversationnels), peut s’appuyer sur le raisonnement IA pour apporter des réponses plus précises aux demandes des clients. Les commerçants peuvent également exploiter le raisonnement afin d’améliorer la pertinence de leur moteur de recommandation et d’offrir une meilleure expérience utilisateur, plus personnalisée.
Les systèmes de raisonnement IA peuvent assister les technologies de cybersécurité dans la surveillance et la détection des menaces. Ils peuvent également recommander rapidement une action appropriée pour améliorer les délais de réponse.
Les modèles de raisonnement par IA peuvent faciliter les diagnostics médicaux et suggérer des plans de traitement. Ils peuvent également contribuer à accélérer la découverte de médicaments, en identifiant les meilleures molécules à tester pour leur développement.
Les systèmes de raisonnement IA permettent de prévoir la demande pour améliorer la gestion des stocks. Les systèmes de maintenance prédictive peuvent également s’appuyer sur le raisonnement IA pour identifier les problèmes d’équipement en temps réel et recommander promptement des solutions.
Les robots dotés de capacités de raisonnement s’avèrent plus efficaces et interagissent mieux avec les humains et les autres machines. Ils sont capables de faire des déductions logiques de manière autonome, ce qui leur permet de mieux s’adapter, cartographier l’environnement, se déplacer et manipuler les objets.
Tous les liens sont externes au site ibm.com
1 Evaluating the Robustness of Analogical Reasoning in GPT Models, OpenReview.net, 20 février 2025