La notion d’intelligence artificielle sentiente désigne la possibilité théorique que les machines agissent en accord avec leurs propres pensées, émotions et motivations. Aujourd’hui, les experts s’accordent à dire que l’IA est loin d’être assez complexe pour être sentiente.
Depuis la naissance de l’ordinateur, les scientifiques ne cessent de développer des benchmarks, tels que le test de Turing, pour évaluer « l’intelligence » des machines. Les débats autour de l’intelligence des machines ont rapidement commencé à porter sur leur conscience ou leur sentience.
Si les discussions sur la conscience de l’IA existent depuis le début des années 2000, la popularité des grands modèles de langage, l’accès des consommateurs à l’IA générative comme ChatGPT et une interview donnée au Washington Post 1 par Blake Lemoine, ancien ingénieur de Google, ont ravivé l’intérêt pour la question : l’IA est-elle sentiente ?
Selon Blake Lemoine, LaMDA, le générateur de chatbots alimenté par l’intelligence artificielle de Google, est sentient puisqu’il s’est mis à parler de droits et de la notion de personne, et qu’il semblait conscient de ses propres besoins et sentiments.
Les éthiciens de Google ont publiquement démenti ces allégations. Yann LeCun, responsable de la recherche en IA chez Meta, a confié au New York Times2 que ces systèmes n’étaient pas assez puissants pour posséder une « véritable intelligence ». Les plus grands experts s’accordent actuellement à dire que l’IA n'est pas sentiente.
Au fur et à mesure que le machine learning progresse, les informaticiens ne cessent d’innover pour proposer des outils d’IA capables de mieux comprendre le comportement humain afin de garantir personnalisation et réponses pertinentes en temps réel, tout en réduisant les tâches chronophages de codage par l’humain. Cela a permis le développement de l’ informatique cognitive, qui consiste pour les systèmes à interagir naturellement avec les humains et à résoudre les problèmes grâce aux algorithmes d’auto-apprentissage. Les modèles GPT d’OpenAI et LaMDA de Google nous donnent une idée des projets actuellement menés par d’autres entreprises technologiques telles que Meta, Apple et Microsoft.
La sentience serait une prochaine étape. Il s’agit de la capacité à vivre des expériences subjectives, mais aussi d’avoir une conscience, une mémoire et des sentiments. La définition des notions de sentience, de cognition et de conscience varie souvent et fait encore l’objet de vifs débats 3 entre philosophes et spécialistes des sciences cognitives.
En théorie, une IA sentiente percevrait le monde qui l’entoure, traiterait les stimuli externes et s’en servirait pour prendre des décisions, réfléchir et sentir comme un être humain.
Si l’IA apprend comme les humains et est capable de raisonner dans une certaine mesure, son fonctionnement n’est pas aussi complexe que celui du cerveau humain, ni même celui de certains animaux. On ne sait pas encore très bien comment naît la conscience chez l’humain, mais il est certain que le phénomène ne se limite pas au nombre de cellules cérébrales connectées entre elles. On confond souvent sentience et intelligence, une autre caractéristique que la communauté scientifique tente toujours de quantifier dans les machines.
Les machines intelligentes apprennent par l’exploration et s’adaptent aux nouvelles entrées. La plupart des programmes d’IA d’aujourd’hui sont spécialisés, contrairement aux généralistes, moins complexes. Chaque programme est entraîné pour réaliser une tâche ou résoudre un type de problème bien précis (par exemple, jouer aux échecs ou passer un test standardisé).
Les chercheurs informatiques spécialisés dans l’IA se sont penchés sur la notion d’intelligence artificielle générale (IAG), également connue sous le nom d’IA forte. Il s’agit de doter l’IA d’une intelligence plus proche de celle de l’humain, qui ne soit pas destinée à une tâche particulière. Il y a aussi la notion de superintelligence artificielle, encore hypothétique.
Ces capacités visent à aider l’IA à mieux comprendre les instructions de l’humain, ainsi que le contexte, pour automatiser le traitement des informations qui permettent aux machines de déduire la fonction correcte à exécuter dans des conditions données.
Des outils tels que le test de Turing ont été élaborés pour mesurer la différence entre le comportement d’une machine et celui de l’humain. Un programme est considéré comme intelligent s’il parvient à faire croire qu’il est humain.
Mais l’intelligence est difficile à classer. Par exemple, l’argument de la chambre chinoise remet en question l’efficacité du test de Turing pour déterminer l’intelligence. Il est important de noter que la notion d’intelligence désigne souvent la capacité d’acquérir et d’utiliser des connaissances. Ce n’est pas la définition de la sentience. Il n’existe aucune preuve que les modèles d’IA tiennent des monologues intérieurs, ni qu’ils soient capables de percevoir leur propre existence au sein d’un monde plus vaste, qui sont deux aspects de la sentience.
Les grands modèles de langage sont capables de reproduire le langage humain de manière convaincante, grâce au traitement automatique du langage naturel et à la compréhension du langage naturel.
Certains technologues affirment que l’architecture des réseaux de neurones sous-tendant l’IA, comme les LLM, imite la structure du cerveau humain et jette les bases de la conscience.
De nombreux informaticiens réfutent l’idée que l’IA serait sentiente et affirment qu’elle a simplement appris comment fonctionne le langage humain en régurgitant le contenu ingéré sur des sites Web comme Wikipédia, Reddit ou encore les réseaux sociaux, sans vraiment comprendre ce qui est dit, ni pourquoi c’est dit.
Les systèmes d’IA ont toujours excellé dans la reconnaissance des schémas, qu’il s’agisse d’images, de vidéos, de contenus audio, de données complexes ou de textes. Ils sont également capables d’incarner diverses personnes en étudiant leurs schémas de discours.
Certains experts qualifient l’IA de perroquet stochastique4 qui « assemble au hasard des séquences de formes linguistiques qu’il a observées dans ses vastes données d’entraînement, en fonction d’informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence à la signification. »
Le problème est que son besoin inné d’attachement pousse l’humain à anthropomorphiser5, c’est-à-dire à attribuer ses propres caractéristiques et émotions aux objets, car cela facilite le lien social.
Comme le précise les chercheuses dans leur article sur le perroquet stochastique, « nous devons prendre en compte le fait que notre perception du texte en langage naturel, quelle que soit la manière dont il a été généré, est influencée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents. »
C’est pourquoi d’aucuns peuvent prendre au pied de la lettre ce que dit l’IA, même s’ils savent que ces technologies ne peuvent ni percevoir ni comprendre le monde au-delà de ce qui leur est accessible grâce à leurs données d’entraînement.
Parce que les chatbots IA sont capables de tenir des conversations cohérentes et de véhiculer des émotions, on peut leur trouver du sens et oublier que les LLM et autres machines humanoïdes sont « programmés pour être crédibles », selon le magazine Scientific American6. Chacune de leurs caractéristiques, qu’il s’agisse des mots qu’ils prononcent ou de la façon dont ils tentent d’imiter les expressions humaines, alimente ces aspirations.
L’IA crée l’illusion d’une présence en reproduisant le schéma de la communication humaine sans l’expérience physique de l’être.
« Toutes les sensations - avoir faim, ressentir la douleur, voir rouge, tomber amoureux - sont le résultat d’états physiologiques qu’un LLM n’a tout simplement pas », rappelaient Fei-Fei Li et John Etchemendy, cofondateurs de l’Institute for Human-Centered Artificial Intelligence de l’université de Stanford, dans un article paru dans le magazine TIME 7. Même si le prompt demande au chatbot IA de dire qu’il a faim, il ne peut pas avoir réellement faim car il n’a pas d’estomac.
Les IA actuelles ne sont pas sentientes. Les tests et essais ont également démontré que ce type de modèle d’IA est toujours très imparfait et susceptible de commettre des erreurs ou d’inventer des informations. Ce phénomène est appelé hallucination.
Ces erreurs surviennent souvent lorsque les modèles ne parviennent pas à identifier le contexte dans lequel l’information existe ou est incertaine. Ces défauts risquent d’être amplifiés si l’IA devient plus autonome.
Si l’idée d’une IA sentiente inquiète les éthiciens, c’est aussi parce qu’ils ignorent ce qui pourrait se passer si les informaticiens perdaient le contrôle des systèmes qui apprennent à penser de manière autonome. Cela pourrait poser un problème « existentiel » si les objectifs de l’IA entraient en conflit avec ceux des humains. Si cela venait à se produire, il n’est pas clair qui serait responsable des dommages, mauvaises décisions et comportements imprévisibles dont la logique ne peut être attribuée à une commande initiale lancée par l’humain.
Les experts craignent aussi de ne pas pouvoir communiquer avec l’IA sentiente, ni pouvoir entièrement se fier à ses sorties. Dans l’ensemble, certains pensent qu’une IA sentiente pourrait constituer une menace pour la sûreté, la sécurité et la vie privée.
Dans un contexte où l’IA s’intègre de plus en plus aux technologie existantes, les experts réclament davantage de cadres réglementaires et de garde-fous techniques. Cette demande est d’autant plus pertinente à la lumière des questions d’ordre moral et éthique que soulèvent l’autonomie et les capacités de l’IA.
1 « The Google engineer who thinks the company’s AI has come to life », The Washington Post, 11 juin 2022
2 « Google Sidelines Engineer Who Claims Its A.I. Is Sentient », The New York Times, 12 juin 2022
3 « Brains, Minds, and Machines : Consciousness and Intelligence », Infinite MIT
4 « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? », FAccT '21 : Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 1er mars 2021
5 « The mind behind anthropomorphic thinking : attribution of mental states to other species », Animal Behaviour, novembre 2015
6 « Google Engineer Claims AI Chatbot Is Sentient : Why That Matters », Scientific American, 12 juillet 2022
7 « No, Today’s AI Isn’t Sentient. Here’s How We Know », TIME, 22 may 2024