L'intelligence artificielle forte (IA), également appelée intelligence artificielle générale (IAG) ou IA générale, est une forme théorique d'IA utilisée pour décrire un certain état d'esprit dans le développement de l'IA. Si les chercheurs parviennent à développer une IA forte, la machine aura une intelligence égale à celle des êtes humains ; elle aura une conscience de soi capable de résoudre des problèmes, d'apprendre et de planifier l'avenir.
L'IA forte vise à créer des machines intelligentes qui ne se distinguent pas de l'esprit humain. Mais, à l'instar d'un enfant, la machine IA devra apprendre par le biais d'apports et d'expériences, en progressant constamment et en améliorant ses capacités au fil du temps.
Alors que les chercheurs en IA, tant dans le monde universitaire que dans le secteur privé, s'investissent dans la création d'une intelligence artificielle générale (IAG), celle-ci n'existe aujourd'hui qu'à l'état de concept théorique : elle n'est pas une réalité tangible. Bien que certaines personnes, comme Marvin Minsky, ont été citées comme étant excessivement optimistes quant à ce que nous pourrions accomplir dans quelques décennies dans le domaine de l'IA, d'autres diraient que des systèmes d'IA forts ne peuvent même pas être développés. Tant que les mesures du succès, telles que l'intelligence et la compréhension, ne sont pas explicitement définies, ils ont raison de le penser. Pour l'instant, beaucoup utilisent le test de Turing pour évaluer l'intelligence d'un système d'IA.
Alan Turing a mis au point le test éponyme en 1950 et l'a évoqué dans son article intitulé « Computing Machinery and Intelligence » (PDF, 566 Ko) (lien externe à IBM). Appelé « Jeu d'imitation » à l'origine, ce test évalue si le comportement d'une machine peut être distingué de celui d'un humain. Dans ce test, fait intervenir une personne appelée « interrogateur » qui cherche à identifier une différence entre les résultats générés par l'ordinateur et ceux générés par l'homme à travers une série de questions. Si l'interrogateur ne peut pas discerner de manière fiable les machines des êtes humains, il réussit le test. Si l'évaluateur peut identifier correctement les réponses des êtres humains, la machine ne pourra pas être qualifiée d'intelligente.
Bien qu'il n'y ait pas de directives d'évaluation établies pour le test de Turing, Turing a précisé qu'un évaluateur humain n'aura que 70 % de chances de prédire correctement une conversation humaine par rapport à une conversation générée par ordinateur après 5 minutes. Le test de Turing a permis de faire accepter l'idée d'une intelligence artificielle.
Cependant, le test de Turing d'origine ne teste qu'un seul ensemble de compétences, à savoir la lecture de textes ou le jeu d'échecs, par exemple. Une IA forte doit pouvoir accomplir diverses tâches avec la même efficacité, ce qui a conduit au développement du test de Turing étendu. Ce test évalue les performances textuelles, visuelles et auditives de l'IA et les compare aux résultats générés par l'homme. Cette version est utilisée dans le célèbre concours du prix Loebner, où un juge humain devine si le résultat a été créé par un humain ou un ordinateur.
L'expérience la Chambre chinoise a été créée par John Searle en 1980. Dans son article, il discute de la définition de la compréhension et de la pensée, affirmant que les ordinateurs ne seraient jamais en mesure d'acquérir ces facultés. Cet extrait de son article, tiré du site Web de Stanford (lien externe à IBM), résume bien son argument.
« Le calcul est défini de manière purement formelle ou syntaxique, alors que l'esprit a des contenus mentaux ou sémantiques réels, et nous ne pouvons pas passer du syntaxique au sémantique en ayant simplement les opérations syntaxiques et rien d'autre...Un système, moi, par exemple, n'acquerrait pas une compréhension du chinois simplement en passant par les étapes d'un programme informatique qui simule le comportement d'un locuteur chinois (p. 17) »
L'expérience de la Chambre chinoise propose le scénario suivant :
Imaginez une personne qui ne parle pas chinois, assise, enfermée dans une pièce. Dans la chambre, se trouve un livre avec des règles du chinois et des phrases et des instructions en chinois. Une autre personne, qui parle couramment le chinois, fait passer des notes écrites en chinois dans la pièce. À l'aide du guide de conversation, la personne à l'intérieur de la pièce peut sélectionner la réponse appropriée et la transmettre à l'interlocuteur chinois.
Bien que la personne à l'intérieur de la pièce ait été en mesure de fournir la réponse correcte à l'aide d'un manuel de langue, elle ne parle ni ne comprend toujours pas le chinois ; il s'agissait simplement d'une simulation de compréhension par la mise en correspondance de questions ou d'affirmations avec des réponses appropriées. Searle soutient que l'IA forte nécessiterait un esprit réel pour avoir une conscience ou une compréhension. L'expérience de la Chambre chinoise illustre les failles du test de Turing, en démontrant les différences de définition de l' intelligence artificielle.
L'IA faible, également appelée IA étroite, se concentre sur l'exécution d'une tâche spécifique, comme répondre à des questions sur la base d'une entrée utilisateur ou jouer aux échecs. Elle peut exécuter un type de tâche, mais pas les deux, alors que l'IA forte peut exécuter diverses fonctions, et éventuellement apprendre à résoudre de nouveaux problèmes. L'IA faible dépend de l'intervention humaine pour définir les paramètres de ses algorithmes d'apprentissage et fournir les données d'entraînement pertinentes pour garantir la précision. Si l'intervention humaine accélère la phase de croissance de l'IA forte, elle n'est pas nécessaire et, au fil du temps, elle développe une conscience semblable à celle de l'être humain au lieu de la simuler, comme l'IA faible. Les voitures autonomes et les assistants virtuels, comme Siri, sont des exemples d'IA faible.
Bien qu'il n'existe pas d'exemples clairs d'intelligence artificielle forte , le domaine de l'IA innove rapidement. Une autre théorie de l'IA, appelée superintelligence artificielle (SIA), super intelligence ou super IA, a émergé. Ce type d'IA dépasse l'intelligence et les capacités inhumaines de l'IA forte. Cependant, la super IA reste purement spéculative, car nous n'avons pas encore obtenu d'exemples d'IA forte.
Cela dit, il existe des domaines où l'IA joue un rôle plus important, par exemple :
Les termes intelligence artificielle, apprentissage automatique et apprentissage en profondeur sont souvent utilisés dans le mauvais contexte. Ces termes sont fréquemment utilisés pour décrire l'IA forte, et il est donc utile de les définir brièvement :
L'intelligence artificielle , définie par John McCarthy (PDF, 109 Ko) (lien externe à IBM), est « la science et l'ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents ». Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l'intelligence humaine, mais l'IA ne doit pas se limiter aux méthodes qui sont biologiquement observables."
L'apprentissage automatique est un sous-domaine de l'intelligence artificielle. Les modèles classiques (non profonds) d'apprentissage automatique nécessitent une intervention humaine plus importante pour segmenter les données en catégories (c'est-à-dire par l'apprentissage de fonctions).
L'apprentissage profond est également un sous-domaine de l'apprentissage automatique, qui tente d'imiter les interconnexions du cerveau humain à l'aide de réseaux neurones. Ses réseaux de neurones artificiels sont constitués de couches de modèles qui identifient des modèles dans un ensemble de données. Ils s'appuient sur un volume élevé de données d'entraînement pour apprendre avec précision, ce qui exige par la suite du matériel plus puissant, comme des GPU ou des TPU. Les algorithmes d'apprentissage en profondeur sont plus fortement associés à l'IA de niveau humain.
Pour en savoir plus sur les différences nuancées entre ces technologies, consultez « L'IA, apprentissage automatique et apprentissage en profondeur : Quelle est la différence ? »
L'apprentissage en profondeur permet de bien gérer les problèmes complexes , ce qui explique qu'il soit utilisé aujourd'hui dans de nombreuses technologies innovantes et émergentes. Les algorithmes d'apprentissage en profondeur sont appliqués dans divers domaines. Voici quelques exemples :
Watson Assistant est l'agent conversationnel d'IA pour l'entreprise. Cette technologie d'intelligence artificielle d'entreprise permet aux utilisateurs de créer des solutions d'IA conversationnelles.
IBM Watson Assistant fournit aux clients des réponses rapides, cohérentes et précises, quels que soient l'application, le dispositif ou le canal.