L’informatique cognitive est un domaine émergent de l’informatique qui utilise des modèles computationnels pour simuler de près la cognition humaine, ou d’autres types de processus de pensée, afin de résoudre des problèmes complexes qui peuvent avoir des réponses ambiguës, incertaines ou non spécifiques.
Reposant sur les cadres larges de l’intelligence artificielle (IA) et du traitement du signal, l’informatique cognitive combine différentes disciplines de machine learning (ML) avec les principes de l’interaction homme-machine, des techniques de dialogue et de génération de récits, afin de créer des machines capables d’apprendre, de raisonner et de comprendre comme des humains. Des systèmes d’informatique cognitive efficaces peuvent traiter de grandes quantités de données pour identifier des motifs et des relations au-delà des capacités humaines.
Bien qu’il existe de nombreux domaines où les ordinateurs surpassent les êtres humains, même les systèmes d’IA avancés ont encore des difficultés avec certaines tâches, comme la compréhension du langage naturel ou la reconnaissance d’objets spécifiques. L’informatique cognitive vise à émuler les systèmes cognitifs du cerveau humain (par exemple : la reconnaissance de formes, la reconnaissance vocale, etc.) afin d’améliorer la prise de décision. Ces systèmes peuvent être conçus pour utiliser des jeux de données dynamiques en temps réel et combiner de multiples sources d’information, y compris des entrées sensorielles comme les données visuelles, gestuelles, auditives ou fournies par des capteurs.
Parmi les cas d’utilisation réels de l’informatique cognitive figurent l’analyse de sentiments, l’évaluation des risques, ainsi que des formes de reconnaissance d’images telles que la détection de visages et la détection d’objets. Elle est particulièrement utile dans les domaines de la robotique, de la santé, de la banque, de la finance et de la vente au détail.
Newsletter sectorielle
Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
L’objectif global de l’informatique cognitive est de développer des systèmes capables de résoudre des problèmes complexes à étapes multiples, qui nécessitent généralement une cognition humaine. Ces problèmes impliquent souvent une reconnaissance de formes de haut niveau, dépendante du contexte. Lorsqu’il s’agit d’interpréter un langage ou une image, les humains sont très doués pour reconnaître les indices contextuels qui permettent une prise de décision précise. Ces tâches sont en revanche beaucoup plus difficiles pour des systèmes informatiques purement basés sur des règles.
Contrairement aux systèmes traditionnels, les ordinateurs cognitifs sont développés pour analyser de grandes quantités de données non structurées issues de sources variées dans le but précis de générer des informations exactes et utiles grâce à une reconnaissance de motifs plus sophistiquée. Des systèmes cognitifs efficaces peuvent interpréter du texte (même dans des polices irrégulières), des images et des discours, et sont même capables d’établir des connexions entre différents types de données. Ils sont également capables de s’améliorer au fil du temps, en imitant la façon dont les êtres humains apprennent.
Les modèles d’informatique cognitive reposent le plus souvent sur des réseaux de neurones artificiels, un type d’IA utilisant des couches de nœuds (ou neurones artificiels), inspirés des réseaux neuronaux du cerveau humain. Ces réseaux peuvent s’améliorer progressivement en apprenant de chaque donnée traitée, optimisant ainsi leurs processus décisionnels.
Si les réseaux de neurones sont puissants pour certains types de tâches, les systèmes cognitifs intègrent fréquemment d’autres types de technologies pilotées par l’IA ou de technologies connexes, comme le traitement automatique du langage naturel (NLP) et le machine learning, afin de mieux comprendre et interpréter différents signaux et entrées.
Les systèmes d’informatique cognitive sont conçus pour combiner de grandes quantités de données issues de sources multiples. Pour analyser et pondérer des données parfois contradictoires et en tirer des inférences éclairées fondées sur le contexte appris, ils utilisent diverses technologies d’auto-apprentissage destinées à imiter l’intelligence humaine. Ces méthodes incluent l’analyse prédictive, l’analyse de données, l’exploitation de big data et différents modèles de reconnaissance de formes, afin d’optimiser le processus décisionnel.
L’entraînement des algorithmes de machine learning utilisés dans les systèmes cognitifs nécessite d’énormes quantités de données, structurées et non structurées. Au cours de cet entraînement, les systèmes commencent à identifier des motifs et, avec le temps, affinent leurs techniques de traitement des données pour établir des connexions plus rapides et plus précises.
Exemple : un système d’IA entraîné à reconnaître différents types de fleurs peut recevoir une base de données contenant des centaines de milliers d’images de fleurs. Plus il reçoit de données, plus il devient précis et agile dans sa capacité à distinguer les variétés de fleurs.
En revanche, un système entraîné à identifier des fleurs en se basant uniquement sur des images de fleurs risque de mal interpréter des indices contextuels que les photos seules ne peuvent transmettre. Pour atteindre des capacités cognitives proches de la prise de décision humaine, les systèmes d’informatique cognitive doivent hybrider différentes technologies et posséder certaines caractéristiques spécifiques. Voici les attributs dont le système doit être doté pour être considéré comme un ordinateur cognitif.
Les systèmes cognitifs doivent être capables de réagir et de s’adapter au fur et à mesure que les informations changent, et suffisamment flexibles pour relever différents types de défis. Ils doivent traiter des données dynamiques en temps réel, en s’ajustant aux évolutions potentielles des informations comme de l’environnement.
L'interaction homme-machine est un élément essentiel des systèmes cognitifs. Ils doivent être réactifs afin que les utilisateurs puissent ajuster leurs instructions en fonction de l’évolution des besoins. Mais ils doivent également être capables d’interagir avec d’autres types de technologies, comme les dispositifs IdO (Internet des objets) et les plateformes de cloud computing.
Les plateformes d’informatique cognitive doivent être itératives, c’est-à-dire capables d’identifier des problèmes uniques ou des types de problèmes récurrents. Elles doivent également être capables de poser des questions de clarification ou de savoir aller chercher des informations supplémentaires auprès de nouvelles sources. Pour résoudre des problèmes complexes en plusieurs étapes, elles doivent aussi être stateful (avec état), c’est-à-dire capables de conserver en mémoire des informations liées à des situations similaires rencontrées par le passé et de revisiter ces états antérieurs.
La compréhension du contexte est un élément crucial de la cognition humaine. Pour que les systèmes cognitifs atteignent un niveau de résolution de problèmes comparable à celui des humains, ils doivent être capables d’extraire et d’identifier des informations contextuelles telles que la syntaxe, le temps, le lieu, le domaine, ainsi que les profils, tâches et besoins spécifiques des utilisateurs. Ils doivent comprendre non seulement le contexte dans lequel les données sont présentées, mais aussi celui dans lequel les problèmes sont formulés.
Les systèmes d’informatique cognitive sont créés en connectant différents modèles de calcul au sein d’un système hybride capable d’imiter plus fidèlement les processus de pensée et l’intelligence humaine. Ces modèles incluent divers types d’IA et de technologies connexes, parmi lesquels :
Les récents progrès en matière d’IA ont eu un impact majeur sur les applications de l’informatique cognitive, des programmes de génération comme ChatGPT et Midjourney jusqu’aux voitures autonomes, et au-delà. Parmi les applications concrètes les plus répandues de l’informatique cognitive, on trouve :
Les assistants d’IA virtuels populaires comme Alexa, Siri ou Google Assistant reposent sur l’informatique cognitive pour améliorer leur utilité grâce à l’automatisation et à l’interactivité. Ces assistants utilisent le machine learning pour traiter le langage naturel et adapter leurs suggestions afin d’offrir des résultats personnalisés aux utilisateurs individuels.
Les systèmes d’informatique cognitive se sont révélés utiles pour de nombreuses applications bancaires et financières. Les systèmes cognitifs servent à surveiller les conditions économiques, comme les variables de chaîne d’approvisionnement et les tendances du marché, afin de prévoir et de modéliser à la fois des opportunités futures et de potentielles crises.
Les systèmes d’informatique cognitive ont fait leurs preuves en matière d’analyses de données approfondies et de reconnaissance de motifs. Ces capacités ont été mises à profit en particulier dans le domaine de la cybersécurité. Ici, les spécialistes utilisent l’informatique cognitive pour analyser le comportement des utilisateurs, comme les transactions financières, afin de détecter des motifs révélateurs de fraude ou de risque.
Les systèmes cognitifs trouvent leur utilité dans les applications de vente au détail. Les enseignes à la pointe de la technologie comme Amazon et Netflix exploitent l’informatique cognitive pour analyser en profondeur l’historique d’achat des utilisateurs et fournir des recommandations de produits mieux adaptées aux à leurs intérêts individuels.
Les systèmes cognitifs sont également utiles au service client dans tous les secteurs : ils alimentent des chatbots avancés capables de jouer le rôle d’agents conversationnels. Ces agents fournissent une assistance détaillée et pertinente, à une vitesse et à une échelle inédites.
Sans doute l’un des systèmes cognitifs les plus célèbres, IBM Watson s’est fait connaître en remportant le jeu télévisé Jeopardy!, tandis que son prédécesseur Deep Blue avait marqué l’histoire en devenant le premier ordinateur à battre un champion du monde d’échecs.
Aujourd’hui, sa nouvelle itération, IBM watsonx, est encore plus impressionnante. Un cas d’utilisation notable est celui du secteur de la santé, où Watsonx aide les professionnels à améliorer les diagnostics médicaux. Il est capable d’accumuler et de comprendre certaines des recherches les plus récentes ainsi que des antécédents médicaux complexes, et il a démontré sa capacité à extrapoler des plans de traitement pertinents pour améliorer la prise en charge des patients.