Qu’est-ce que l’intelligence artificielle générale (AGI) ?

Contour du cerveau humain avec différentes formes et couleurs

Auteurs

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

Qu’est-ce que l’intelligence artificielle générale (AGI) ?

L'intelligence artificielle générale (AGI) est une étape hypothétique du développement du machine learning (ML) au cours de laquelle un système d'intelligence artificielle (IA) peut égaler ou dépasser les capacités cognitives des êtres humains dans toutes les tâches. Cela représente l'objectif fondamental et abstrait du développement de l'IA : la réplication artificielle de l'intelligence humaine dans une machine ou un logiciel.

L’AGI a été activement explorée depuis le début de la recherche sur l’IA. Pourtant, il n’y a pas de consensus au sein de la communauté universitaire quant à ce qui pourrait être considéré comme une AGI ou à la meilleure façon de l’atteindre. Si l’objectif général d’une intelligence de type humain est assez simple, les détails sont nuancés et subjectifs. La poursuite de l’AGI comprend donc le développement à la fois d’un cadre d’exigences pour comprendre l’intelligence dans les machines et des modèles capables de satisfaire ce cadre d’exigences.

Le défi est à la fois philosophique et technologique. Sur le plan de philosophique, une définition formelle de l’AGI nécessite à la fois une définition formelle de l’« intelligence » et un accord général sur la manière dont cette intelligence peut se manifester dans l’IA. Sur le plan technologique, l’AGI nécessite la création de modèles IA d’un niveau de sophistication et de polyvalence sans précédent, d’indicateurs et de tests permettant de vérifier de manière fiable la cognition du modèle et la puissance de calcul nécessaire à son fonctionnement.

De l’IA faible à l’IA forte

La notion d’intelligence « générale » ou d’IA générale peut être mieux comprise par rapport à l’IA restreinte : un terme qui décrit efficacement presque toutes les IA actuelles, dont « l’intelligence » n’est démontrée que dans des domaines spécialisés.

Le 1956 Dartmouth Summer Research Project on Artificial Intelligence, qui a réuni des mathématiciens et des scientifiques d’institutions telles que Dartmouth, IBM, Harvard et Bell Labs, est considéré comme l’origine du terme « intelligence artificielle ». Comme indiqué dans la proposition, « l’étude [devait] procéder sur la base de la conjecture que chaque aspect de l’apprentissage ou toute autre fonctionnalité de l’intelligence peut être décrit de manière si précise qu’une machine peut être conçue pour le simuler ».

Ce domaine en plein essor de l’IA cherchait à développer une feuille de route vers des machines capables de réfléchir par elles-mêmes. Mais au cours des décennies suivantes, les progrès vers une intelligence humaine dans les machines se sont avérés entravés.

Des progrès beaucoup plus importants ont été réalisés dans la recherche de machines informatiques qui effectuent certaines tâches qui nécessitent généralement une intelligence significative chez les humains, comme les jeux d’échecs, les diagnostics médicaux, les prévisions météo ou la conduite automobile. Mais ces modèles, par exemple, ceux qui alimentent les voitures autonomes, ne font preuve d’intelligence que dans leurs domaines spécifiques.

En 2007, le chercheur en IA Ben Goertzel a popularisé le terme « intelligence artificielle générale » (AGI), à la suggestion du cofondateur de DeepMind, Shane Legg, dans un livre influent du même nom. Contrairement à ce qu’il a qualifié d’« IA restreinte », une intelligence artificielle générale serait un nouveau type d’IA dotée, entre autres qualités, de « la capacité de résoudre des problèmes généraux sans restriction de domaine, de la même manière que peut le faire un humain ».

IAG, IA forte et superintelligence artificielle

L'AGI est fortement associée à d'autres concepts de machine learning, souvent confondus ou même utilisés de manière interchangeable avec l'IA ou la superintelligence artificielle. Même si ces concepts se recoupent en grande partie, ils constituent chacun une conception distincte de l'IA.

AGI vs IA forte

L’« IA forte », un concept largement abordé dans les travaux du mathématicien John Searle, fait référence à un système d’IA démontrant de la conscience et sert principalement de contrepoint à l’IA faible. Bien que l’IA forte soit généralement analogue à l’AGI (et l’IA faible à l’IA étroite), elles ne sont pas simplement synonymes l’une de l’autre.

En substance, alors que l’IA faible est simplement un outil à utiliser par un esprit conscient, c’est-à-dire un être humain, l’IA forte est elle-même un esprit conscient. Bien que l’on implique généralement que cette conscience impliquerait une intelligence égale ou supérieure à celle des êtres humains, l’IA forte ne s’intéresse pas explicitement aux performances relatives à diverses tâches. Ces deux concepts sont souvent confondus, car la conscience est généralement considérée comme un prérequis ou une conséquence de « l’intelligence générale ».

Malgré leurs similitudes, l’AGI et l’IA forte décrivent en fin de compte des concepts complémentaires, plutôt que des concepts identiques.

AGI vs superintelligence artificielle

La superintelligence artificielle, comme son nom l’indique, constitue un système d’IA dont les capacités dépassent largement celles des êtres humains.

Il convient de noter que ce concept ne présuppose pas nécessairement une superintelligence « générale ». Parmi ces trois étapes d'IA analogues (AGI, IA puissante et superintelligence artificielle), la superintelligence artificielle est la seule qui a sans doute déjà été atteinte. Plutôt que de n’être que l’apanage de la science-fiction, des modèles d’IA spécialisée existent et font preuve de ce qui pourrait être qualifié de superintelligence, car ils surpassent les performances de n’importe quel être humain pour leur tâche assignée.

Par exemple,

  • AlphaFold surpasse tous les scientifiques humains dans la prédiction de la structure 3D d’une protéine à partir d’une séquence d’acides aminés.
  • Deep Blue d'IBM a battu le champion du monde Garry Kasparov aux échecs en 1997.
  • IBM Watson a a battu les champions de Jeopardy! Ken Jennings et Brad Rutter en 2013.
  • AlphaGo (et son modèle successeur AlphaZero) est considéré comme le plus grand joueur mondial de Go.

Même si ces modèles représentent des innovations dans la superintelligence artificielle, ils n’ont pas abouti à l’intelligence artificielle « générale » ; en effet, ces systèmes d’IA ne peuvent pas apprendre de nouvelles tâches de manière indépendante ou développer leurs capacités de résolution au-delà de leur domaine d’application restreint.

De plus, il convient de noter que la superintelligence n’est pas une condition préalable à l’AGI. En théorie, un système d’IA faisant preuve de conscience et d’un niveau d’intelligence comparable à celui d’un être humain ordinaire représenterait à la fois une AGI et une IA forte, mais pas une superintelligence artificielle.

Définitions existantes de l’intelligence artificielle générale

Il n’y a pas de consensus entre les experts quant à ce qui devrait exactement être considéré comme une AGI, même si de nombreuses définitions ont été proposées tout au long de l’histoire de l’informatique. Ces définitions se concentrent généralement sur la notion abstraite d’intelligence machine, plutôt que sur les algorithmes spécifiques ou les modèles de machine learning qui devraient être utilisés pour y parvenir.

En 2023, un article Google Deepmind a analysé la littérature universitaire existante et a identifié plusieurs catégories de cadres des exigences pour définir l’intelligence artificielle générale :

  • Le test de Turing : des machines capables d’agir de manière convaincante comme des humains
  • IA forte : systèmes possédant une conscience
  • Analogies avec le cerveau humain
  • Performance au niveau humain sur les tâches cognitives
  • Capacité à apprendre de nouvelles tâches
  • Travail économiquement intéressant
  • Capacités flexibles et générales
  • « Intelligence artificielle capable » (ACI)

Le test de Turing

Alan Turing, une figure mondiale de l’histoire de l’informatique théorique, a publié l’une des définitions les plus anciennes et les plus influentes de l’intelligence machine dans son article de 1950, « Computer Machinery and Intelligence ». Le cœur de son argument était que l’intelligence peut être définie par le comportement, plutôt que par des qualités philosophiques mystiques. Conscient de la difficulté de trouver des définitions solides pour des concepts tels que les machines et la pensée, A. Turing a proposé un moyen simple de contourner le problème en s’appuyant sur un jeu de société appelé le jeu de l’imitation.

Le « test de Turing » est simple : un observateur humain doit lire des échantillons de texte et déterminer s’ils ont été générés par un humain ou par une machine. Turing a proposé que si un humain ne peut pas faire la distinction entre le résultat du programme et le résultat d’un autre humain, on peut dire que le programme fait preuve d’une intelligence semblable à celle de l’homme.

Critiques du test de Turing
Malgré son influence monumentale, les informaticiens d’aujourd’hui ne considèrent pas le test de Turing comme une mesure adéquate de l’AGI. Plutôt que de démontrer la capacité des machines à penser, le test souligne souvent simplement à quel point les humains sont faciles à tromper.

Par exemple, en 1966, Joseph Weizenbaum a créé un programme de chatbot appelé ELIZA qui appliquait des règles simples pour transformer le langage d’une personne en entrée en une réponse formulée par le chatbot. Le premier programme qu’il a conçu avec ce chatbot s’appelait DOCTOR et était destiné à imiter un psychothérapeute rogérien en répondant de manière générique ou en reformulant l’entrée de l’utilisateur sous la forme d’une question :

Humain — Mon petit ami m’a conseillé de m’adresser à vous.
ELIZA — Vraiment ?
Humain — Il dit que je suis souvent déprimée.
ELIZA — Je suis désolé d’apprendre que vous êtes déprimée.
Humain — C’est la vérité. Je ne suis pas heureuse.
ELIZA — Vous pensez que le fait de s’adresser à moi peut vous aider ?
 

Comme Weizelbaum l’expliquait dans son ouvrage de 1976, Computer Power and Human Reason, il a été « surpris de voir à quel point les personnes qui discutaient avec DOCTOR s’impliquaient émotionnellement avec l’ordinateur et à quel point ils l’anthropomorphisaient sans équivoque ». Il a remarqué que même sa secrétaire, qui l’a vu travailler sur le programme pendant des mois et qui connaissait évidemment la méthodologie simple, lui a demandé de quitter la pièce pour des raisons d’intimité lorsqu’elle a commencé à discuter avec lui.1 Ce phénomène est connu sous le nom d’effet ELIZA.

IA forte : des systèmes dotés d’une conscience

Une autre définition proposée place la barre plus haut pour l’AGI : un système d’IA possédant une conscience. Comme l’explique Searles, « selon une IA forte, l’ordinateur n’est pas simplement un outil d’étude de l’esprit ; un ordinateur correctement programmé est plutôt un esprit ».2

Searles est l’auteur d’une réfutation philosophique de premier plan de la capacité du test de Turing à prouver une IA forte en 1980. Il décrit le cas d’un anglophone ne comprenant absolument pas le chinois, enfermé dans une salle contenant une collection de livres de symboles chinois et des instructions (rédigées en anglais) pour les manipuler. Son argument est que l’anglophone pourrait faire croire à une personne située dans une pièce différente qu’il est capable de parler chinois, en se contentant de suivre les instructions pour manipuler les nombres et les symboles, et ce, malgré le fait qu’il ne comprenne ni les messages d’autrui, ni ses propres réponses.3

Les décennies de débat entourant l’argument de la chambre chinoise, dont un résumé se trouve dans cet article de la Stanford Encyclopedia of Philosophy , illustrent l’absence de consensus scientifique quant à la définition de la « compréhension » et à la capacité d’un programme informatique à la posséder. Ce désaccord, ainsi que la possibilité que la conscience ne soit même pas une exigence pour des performances similaires à celles des humains, font de l'IA forte à elle seule un cadre des exigences peu pratique pour définir l'AGI.

Similarités avec le cerveau humain

Une approche intuitive de l’AGI, qui vise à reproduire le type d’intelligence qui (à notre connaissance) n’a jamais été atteint que par le cerveau humain, consiste à reproduire le cerveau humain lui-même.4 Cette intuition a conduit aux réseau de neurones artificiels originaux, qui à leur tour ont donné les modèles d’apprentissage profond qui représentent actuellement l’état de la technologie dans presque tous les sous-domaines de l’ IA.

Le succès des réseaux de neurones d’apprentissage profond, en particulier les grands modèles de langage (LLM) et les modèles multimodaux à l’avant-garde de l’IA générative (IA générative), démontre les avantages de s’inspirer du cerveau humain par le biais de réseaux auto-organisés de neurones artificiels. Cependant, la plupart des modèles d'apprentissage profond les plus performants à ce jour utilisent des architectures basées sur des transformateurs, qui en elles-mêmes n'imitent pas strictement des structures semblables à celles du cerveau. Cela suggère que l’imitation explicite du cerveau humain pourrait ne pas être intrinsèquement nécessaire pour réaliser l’AGI.

Performances humaines sur des tâches cognitives

Une approche plus holistique consiste à définir simplement l’AGI comme un système d’IA capable d’effectuer toutes les tâches cognitives que des personnes peuvent accomplir. Bien que cette définition soit utile et intuitive, elle est ambiguë : quelles tâches ? Quelles personnes ? Cette ambiguïté limite son utilisation pratique en tant que cadre d’exigences formel pour l’AGI.

La contribution la plus notable de ce cadre des exigences est qu’il limite l’accent mis par l’AGI sur les tâches non physiques. Cela ne tient pas compte de capacités telles que l'utilisation d'outils physiques, la locomotion ou la manipulation d'objets, qui sont souvent considérées comme des démonstrations d'« intelligence physique »5. Les progrès de la robotique ne sont donc plus une condition préalable au développement de l'AGI.

Capacité à apprendre de nouvelles tâches

Une autre approche intuitive de l’AGI, et de l’intelligence elle-même, consiste à mettre l’accentsur la capacité d’apprendre, et plus précisément, d’apprendre un éventail de tâches et de concepts aussi large que les humains. Cela fait écho à A. Turing dans « Computing Machinery and Intelligence », où il pense qu’il serait peut-être plus sage de programmer une IA enfantine et de la soumettre à une période d’études, plutôt que de programmer directement un système informatique comme un esprit d’adulte.6

Cette approche est en contradiction avec l'IA restreinte, qui entraîne explicitement les modèles à effectuer une tâche spécifique. Par exemple, même un LLM tel que GPT-4 qui démontre ostensiblement la capacité d’apprentissage en quelques coups ou même en zéro coup sur de « nouvelles » tâches est limité à des fonctions adjacentes à sa tâche principale : prédire automatiquement le mot suivant dans une séquence.

Bien que les modèles d’IA multimodaux de pointe puissent effectuer des tâches de plus en plus diverses, du traitement automatique du langage naturel à la vision par ordinateur en passant par la reconnaissance vocale, ils sont toujours limités à une liste finie de compétences de base représentées dans leurs ensembles de données d’entraînement. Par exemple, ils ne peuvent pas non plus apprendre à conduire une voiture. Un véritable IAG serait capable d’apprendre de nouvelles expériences en temps réel – un exploit banal pour les enfants humains et même pour de nombreux animaux.

Le chercheur en IA Pei Wang propose une définition de l’intelligence artificielle qui est utile dans ce cadre d’exigences : « la capacité d’un système de traitement de l’information à s’adapter à son environnement avec des connaissances insuffisantes et des ressources ».7

Travail économiquement intéressant

Open AI, dont le modèle GPT-3 est souvent considéré comme le point de départ de l'ère actuelle de l'IA générative avec le lancement de ChatGPT, définit AGI dans sa charte comme « des systèmes hautement autonomes qui surpassent les humains dans les tâches les plus rentables sur le plan économique ».8

Comme le note l’article DeepMind, cette définition omet des éléments de l’intelligence humaine dont la valeur économique est difficile à définir, tels que la créativité artistique ou l’intelligence émotionnelle. Au mieux, ces aspects de l’intelligence peuvent générer de la valeur économique de manière détournée, comme la créativité produisant des films rentables ou l’intelligence émotionnelle alimentant des machines qui effectuent une psychothérapie.

L'accent mis sur la valeur économique implique également que les capacités de l'AGI ne peuvent être prises en compte que si elles sont réellement mises en déploiement dans le monde réel. Si un système d'IA peut rivaliser avec l'homme dans une tâche spécifique, mais qu'il est impossible de le déployer pour cette tâche pour des raisons juridiques, éthiques ou sociales, peut-on dire qu'il est « plus performant » que l'homme ?

L’article de DeepMind note également qu’OpenAI a fermé sa division robotique en 2021, ce qui implique que la réplication du travail physique — et les implications correspondantes sur le rôle de « l’intelligence physique » dans l’IA générale — ne fait pas partie de cette interprétation de la valeur économique.

Capacités flexibles et générales

Gary Marcus, psychologue, spécialiste des sciences cognitives et chercheur en IA, a défini l'AGI comme « un raccourci désignant toute intelligence... flexible et générale, dotée d'une ingéniosité et d'une fiabilité comparables (voire supérieures) à l'intelligence humaine ».9 Marcus a suggéré une série de tâches de référence destinées à prouver cette adaptabilité et cette compétence générale, ce qui est similaire à une application spécifique et concrète du cadre « apprendre des tâches ».

Cette quantification de l'AGI n'est pas sans rappeler une expérience de réflexion proposée par le cofondateur d'Apple Steve Wozniak, qui a demandé : « Un ordinateur peut-il préparer une tasse de café ? » Wozniak note que cette tâche apparemment simple est en fait assez complexe : il faut être capable de marcher, de savoir ce que sont les cuisines, de savoir à quoi peuvent ressembler une machine à café ou un café et de se familiariser avec les tiroirs et les armoires. Pour résumer, l’être humain doit s’appuyer sur l’expérience de toute une vie, ne serait-ce que pour préparer une tasse de café.10

Plus précisément, Marcus a proposé un ensemble de cinq tâches de référence qui démontreraient l’existence d’une AGI si elles étaient exécutées par un seul système d’IA11.

  • Regarder un film et comprendre les personnages, leurs conflits et leurs motivations.
  • Lire un roman et répondre à des questions de manière fiable, avec des informations allant au-delà du texte original, sur l’intrigue, les personnages, les conflits et les motivations.
  • Travailler comme un cuisinier compétent dans une cuisine arbitraire (similaire au test du café de Wozniak).
  • Construire de manière fiable 10 000 lignes de code sans bug à partir d’instructions en langage naturel, sans rassembler le code de bibliothèques existantes.
  • Convertir des preuves mathématiques en langage naturel sous forme symbolique.

Bien que ce cadre d’exigences introduit une certaine objectivité indispensable dans la validation de l’AGI, il est difficile de s’accorder sur le fait que ces tâches spécifiques couvrent toute l’intelligence humaine. La troisième tâche, travailler en tant que cuisinier, implique que la robotique – et donc l’intelligence physique – serait une partie nécessaire de l’AGI.

« Intelligence artificielle capable »

En 2023, le PDG de Microsoft IA et le cofondateur de DeepMind, Mustafa Suleyman, ont proposé le terme « intelligence artificielle capable » (ICA) pour décrire les systèmes d’IA capables d’accomplir des tâches complexes, ouvertes et multi-étapes dans le monde réel. Plus précisément, il a proposé un « test de Turing moderne » dans le cadre duquel une IA recevrait 100 000 dollars de capital d’amorçage et serait chargée de le porter à 1 million de dollars américains.12 D’une manière générale, cela associe la notion de valeur économique d’OpenAI à l’accent mis par Marcus sur la flexibilité et l’intelligence générale.

Si ces critères de référence prouvent probablement une véritable ingéniosité et des compétences interdisciplinaires, en pratique, ils ne considèrent pas l'intelligence comme un type spécifique de production économique, mais ils sont extrêmement restreints. En outre, le fait de se concentrer uniquement sur les bénéfices introduit des risques d’alignement importants.13

Les LLM sont-ils déjà des AGI ?

Certains chercheurs, comme Blase Agüera y Arcas et Peter Norvig, ont soutenu que des LLM avancés du type Llama de Meta, GPT d'Open AI et Claude d'Anthropic ont déjà atteint l'AGI. Ils affirment que la généralité est l'élément clé de l'AGI et que les modèles actuels peuvent déjà discuter d'un large éventail de sujets, effectuer un large éventail de tâches et traiter un large éventail d'entrées multimodales. « L’intelligence générale doit être pensée en termes de tableau de bord multidimensionnel », affirment-ils. « Ce n’est pas une proposition à laquelle on peut répondre par un simple oui ou un non. » 14

Les détracteurs de cette position sont nombreux. Les auteurs de l’article de DeepMind soutiennent que la généralité elle-même n’est pas qualifiée d’IAG : elle doit être associée à un certain degré de performance. Par exemple, si un LLM peut écrire du code, mais que ce code n’est pas fiable, alors cette généralité « n’est pas encore suffisamment performante ».

Yann LeCun, scientifique en chef de l’IA de Meta, explique que les LLM manquent d’AGI parce qu’ils n’ont pas de sens commun : ils ne peuvent pas penser avant d’agir, ne peuvent pas effectuer d’actions dans le monde réel ou apprendre par l’expérience, et manquent de mémoire persistante et de capacité de planification hiérarchique.15 À un niveau plus fondamental, LeCun et Jacob Browning ont soutenu qu’« un système entraîné sur le langage seul ne correspondra jamais à l’intelligence humaine, même s’il est entraîné à partir de maintenant jusqu’à la mort de l’univers. »16

Approches technologiques de l’AGI

Goertzel et Pennachin affirment qu’il existe au moins trois approches technologiques de base pour les systèmes AGI, en termes d’algorithmes et d’architectures de modèles.

  • Émulation proche du cerveau humain dans un logiciel : Étant donné que le cerveau humain est le seul système que nous connaissons qui soit capable d'une intelligence générale, une émulation presque parfaite de celui-ci permettrait théoriquement d'obtenir une intelligence similaire. Si les réseaux neuronaux artificiels reproduisent superficiellement les mécanismes de base du cerveau, le fonctionnement réel du cerveau est beaucoup plus varié et sophistiqué que les modèles actuels d'apprentissage profond. Au-delà du défi technologique d’imiter véritablement le cerveau, cette approche nécessite également une meilleure compréhension des machinations du cerveau que celle que nous avons actuellement.17

  • Un modèle d'architecture novateur, distinct à la fois du cerveau et des architectures d'IA restreintes : Cette approche part du principe que le cerveau n'est pas la seule structure propice à l'intelligence générale et que les approches existantes de l'IA ne peuvent pas dépasser leurs limites technologiques ou conceptuelles. L'AGI aurait donc besoin d'un nouveau type d'intelligence artificielle. Par exemple, LeCun a proposé de remplacer les architectures de modèles IA et autres modèles génératifs probabilistes par des systèmes d’IA axés sur l’objectifdont les modèles du monde apprennent davantage comme les animaux et les enfants.

  • Une approche intégrative, synthétisant des algorithmes d'IA étroits : Cette approche est au centre de la plupart des initiatives actuelles dans le monde réel pour réaliser l'AGI, en essayant de rassembler les progrès isolés qui ont été réalisés sur des outils d'IA restreints tels que les LLM, les modèles d'image et les agents d'apprentissage par renforcement. Les modèles multimodaux actuels pourraient être considérés comme des étapes intermédiaires sur cette voie. Ces approches intégratives utilisent généralement un modèle « agent » central — souvent un LLM — pour gérer un processus de prise de décision et automatiser la délégation de sous-tâches à des modèles spécialisés.

Quand l’IAG arrivera-t-elle ?

Les prévisions concernant l'avenir de l'IA sont toujours très incertaines, mais presque tous les experts s'accordent à dire que ce sera possible d'ici la fin du siècle et certains pensent que cela pourrait se produire bien plus tôt.

En 2023, Max Roser, de Our World in Data, a publié un résumé des prévisions concernant l’intelligence artificielle générale (AGI). pour indiquer comment la pensée des experts a évolué ces dernières années en matière de prévision de l’IA générale. Chaque enquête a demandé aux personnes interrogées (chercheurs en IA et en machine learning) combien de temps elles estimaient nécessaire pour parvenir à une probabilité de 50 % d’atteindre un niveau d’intelligence artificielle équivalent à celui de l’être humain. Le changement le plus significatif entre 2018 et 2022 est la certitude croissante des personnes interrogées que l’AGI y parviendrait dans les 100 ans.

Cependant, il convient de noter que ces trois études ont été menées avant le lancement de ChatGPT et le début de l’ère moderne de l’IA générative. Le rythme croissant des progrès de la technologie de l’IA depuis fin 2022, en particulier dans les LLM et l’IA multimodale, a engendré un environnement de prévision très différent.

Dans une enquête de suivi plus vaste menée par Grace et al auprès de 2 778 chercheurs en IA, menée en octobre 2023 et publiée en janvier 2024, les personnes interrogées ont estimé à 50 % la probabilité que « les machines non assistées surpassent les humains dans toutes les tâches possibles » d’ici 2047,soit 13 ans plus tôt que ce que les experts avaient prédit dans une étude similaire seulement un an auparavant.

Mais comme le souligne Frank Roser, les recherches ont montré que les experts dans de nombreux domaines ne sont pas nécessairement fiables lorsqu’ils font des prévisions sur l’avenir de leur propre discipline. Il cite l'exemple des frères Wright, généralement considérés comme les inventeurs du premier avion réussi au monde. Lors d'un discours prononcé le 5 novembre 1908 à l'Aéro Club de France à Paris, Wilbur Wright aurait déclaré : « J'avoue qu'en 1901, j'ai dit à mon frère Orville qu'il faudrait encore 50 ans avant que les hommes ne puissent voler dans le ciel. Deux ans plus tard, nous effectuions des vols. »18

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct
Notes de bas de page

1 Computer Power and Human Reason: from Judgment to Calculation (page 6), Joseph Weizenbaum, 1976.
2 « Minds, brains, and systems », Behavioral and Brain Sciences (archivé via OCR par l’Université de Southampton), 1980.
3 ibid.
4 « Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain? », Research Directions: Bioelectronics (publié en ligne par l’Université de Cambridge), 12 février 2024.
5 « Physical intelligence as a new paradigm », Extreme Mechanics Lettres, Volume 46, juillet 2021.
6 « Computing Machinery and Intelligence », Mind 49: 433-460 (publié en ligne par l’Université du Maryland, comté de Baltimore), 1950.
7 « On the Working Definition of Intelligence », ResearchGate, janvier 1999.
8 « Open AI Chart », OpenAI, archivé le 1er septembre 2024.
9 « will not happen in your lifetime. Or will it? », Gary Marcus (sur Substack), 22 janvier 2023.
10 « Wozniak: Could a Computer Make a Cup of Coffee? », Fast Company (sur YouTube), 2 mars 2010.
11 «Dear Elon Musk, here are five things you might want to consider about AGI », Gary Marcus (sur Substack), 31 mai 2022.
12 « My new Turing test would see if AI can make $1 million », MIT Technology Review, 14 juillet 2023.
13 « Alignment of Language Agents », arXiv, 26 mars 2021.
14 « Artificial General Intelligence Is Already Here », Noema Magazine, 10 octobre 2023.
15 « Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI », Lex Fridman Podcast (sur YouTube), 10 octobre 2023.
16 « AI and The Limits of Language »Noema Magazine, 23 août 2023.
17 « Why is the human brain so difficult to understand? We asked 4 neuroscientists. » Allen Institute, 21 avril 2022.
18 « Great Aviation Quotes: Predictions » , Great Aviation Quotes.