Qu'est-ce que l'IA forte ?
Découvrez l'IA forte, une forme théorique de l'IA qui reproduit les fonctions humaines telles que le raisonnement, la planification et la résolution de problèmes
Découvrir l’IA conversationnelle d’IBM
Fond bleu et noir
Qu'est-ce que l'IA forte ?

L'intelligence artificielle (IA) forte, également appelée intelligence artificielle générale (IAG) ou IA générale, est une forme théorique d'IA utilisée pour décrire un certain état d'esprit dans le développement de l'IA. Si les chercheurs parviennent à développer une IA forte, la machine aura une intelligence égale à celle des êtes humains ; elle aura une conscience de soi capable de résoudre des problèmes, d'apprendre et de planifier l'avenir.

L'IA forte vise à créer des machines intelligentes qui ne se distinguent pas de l'esprit humain. Mais, à l'instar d'un enfant, la machine devra apprendre par le biais d'apports et d'expériences, en progressant constamment et en améliorant ses capacités au fil du temps.

Alors que les chercheurs en IA, tant dans le monde universitaire que dans le secteur privé, s'investissent dans la création d'une intelligence artificielle générale (IAG), celle-ci n'existe aujourd'hui qu'à l'état de concept théorique : elle n'est pas une réalité tangible. Bien que certaines personnes, comme Marvin Minsky, ont été citées comme étant excessivement optimistes quant à ce que nous pourrions accomplir dans quelques décennies dans le domaine de l'IA, d'autres diraient que des systèmes d'IA forts ne peuvent même pas être développés. Tant que les mesures du succès, telles que l'intelligence et la compréhension, ne sont pas explicitement définies, ils ont raison de le penser. Pour l'instant, beaucoup utilisent le test de Turing pour évaluer l'intelligence d'un système d'IA.

Tests d'IA forte

Test de Turing


Alan Turing a mis au point le test de Turing en 1950 et en a parlé dans son article intitulé  « Computing Machinery and Intelligence » (PDF de 566 Ko, lien externe à IBM). Appelé « Jeu d'imitation » à l'origine, ce test évalue si le comportement d'une machine peut être distingué de celui d'un humain. Il fait intervenir une personne appelée « interrogateur » qui cherche à identifier une différence entre les résultats générés par l'ordinateur et ceux générés par l'humain à travers une série de questions. Si l'interrogateur n'est pas capable de discerner correctement les machines des êtes humains, la machine réussit le test. Par contre, s'il peut identifier correctement les réponses fournies par l'humain, la machine ne pourra pas être qualifiée d'intelligente.

Bien que le test ne soit pas soumis à des règles d'évaluation précises, Turing a précisé qu'un évaluateur humain n'avait que 70 % de chances de distinguer correctement une conversation humaine d'une conversation générée par un ordinateur sur une période de 5 minutes. Le test de Turing a permis de faire accepter l'idée d'une intelligence artificielle.

Cependant, le test de Turing initial ne teste qu'un seul ensemble de compétences, par exemple le traitement d'un texte ou une partie d'échecs. Une IA forte doit pouvoir accomplir une variété de tâches avec la même efficacité, ce qui a conduit au développement du test de Turing étendu. Ce test évalue les performances textuelles, visuelles et auditives de l'IA et les compare aux résultats générés par l'homme. Cette version est utilisée dans le célèbre concours du prix Loebner, où un juge humain devine si le résultat a été créé par un humain ou un ordinateur.

Argument de la pièce chinoise


L'argument de la pièce chinoise a été créé par John Searle en 1980. Dans cet article, il se penche sur la définition de la compréhension et de la réflexion et affirme que les ordinateurs ne seront jamais capables de telles capacités. Cet extrait de son article, tiré du site Web de Stanford (lien externe à IBM), résume bien son argument :

« Le calcul est défini de manière purement formelle ou syntaxique, alors que l'esprit a des contenus mentaux ou sémantiques réels, et nous ne pouvons pas passer du syntaxique au sémantique en ayant simplement les opérations syntaxiques et rien d'autre...Un système, moi, par exemple, n'acquerrait pas une compréhension du chinois simplement en passant par les étapes d'un programme informatique qui simule le comportement d'un locuteur chinois (p. 17) ».

L'argument de la pièce chinoise propose le scénario suivant :

Imaginez une personne qui ne parle pas chinois, assise, enfermée dans une pièce. Dans la pièce, il y a un livre avec des règles, des phrases et des instructions en chinois. Une autre personne, qui parle couramment le chinois, introduit des notes écrites en chinois dans la pièce. À l'aide du guide linguistique, la personne à l'intérieur de la pièce peut sélectionner la réponse appropriée et la transmettre à l'interlocuteur chinois.

Bien que la personne à l'intérieur de la pièce ait été en mesure de fournir la réponse correcte à l'aide du guide linguistique, elle ne parle ni ne comprend toujours pas le chinois. Il s'agissait simplement d'une simulation de la compréhension en faisant correspondre une question ou une affirmation à une réponse appropriée. Searle soutient que l'IA forte nécessiterait un esprit réel pour avoir une conscience ou une compréhension. L'argument de la pièce chinoise illustre les failles du test de Turing, en démontrant les différences de définition de l'intelligence artificielle.

IA forte et IA faible

L'IA faible, également appelée IA étroite, se concentre sur l'exécution d'une tâche spécifique, comme répondre à des questions sur la base d'une entrée utilisateur ou jouer aux échecs. Elle peut exécuter un type de tâche, mais pas les deux, alors que l'IA forte peut exécuter diverses fonctions, et éventuellement apprendre à résoudre de nouveaux problèmes. L'IA faible dépend de l'intervention humaine pour définir les paramètres de ses algorithmes d'apprentissage et fournir les données d'entraînement pertinentes pour garantir la précision. Si l'intervention humaine accélère la phase de croissance de l'IA forte, elle n'est pas nécessaire et, au fil du temps, elle développe une conscience semblable à celle de l'être humain au lieu de la simuler, comme l'IA faible. Les voitures autonomes et les assistants virtuels, comme Siri, sont des exemples d'IA faible.  

Tendances de l'IA forte

Bien qu'il n'existe pas d'exemples clairs d'intelligence artificielle forte, le domaine de l'IA innove rapidement. Une autre théorie de l'IA, appelée superintelligence artificielle (SIA), super intelligence ou super IA, a émergé. Ce type d'IA dépasse l'intelligence et les capacités humaines de l'IA forte. Cependant, la superintelligence artificielle reste purement spéculative, car nous devons encore parvenir à des exemples d'IA forte.

Cela dit, il existe des domaines où l'IA joue un rôle de plus en plus important, par exemple :

  • Cybersécurité : L'intelligence artificielle jouera un rôle de plus en plus important dans les mesures de cybersécurité des organisations, notamment dans la détection des violations de sécurité, la surveillance, le renseignement sur les menaces, la réponse aux incidents et l'analyse des risques.
  • Divertissement et création de contenus : Les programmes informatiques sont déjà plus performants dans la production de contenu, qu'il s'agisse de rédaction, de poésie, de jeux vidéo ou même de films. L'application de génération de texte par l'IA GBT-3 d'OpenAI crée déjà du contenu qu'il est presque impossible de distinguer d'un texte rédigé par des humains.
  • Reconnaissance et prédiction du comportement : Les algorithmes de prédiction rendront l'IA plus forte, qu'il s'agisse d'applications de prévisions météorologiques ou boursières ou, plus intéressant encore, de prédictions du comportement humain. Cela soulève également des questions concernant les préjugés implicites et l'IA éthique. Certains chercheurs de la communauté de l'IA militent en faveur d'un ensemble de règles anti-discriminatoires, souvent associées au hashtag #IAresponsable.
Termes et définitions de l'IA forte

Les termes intelligence artificielle, apprentissage automatique et apprentissage en profondeur sont souvent utilisés dans le mauvais contexte. Ces termes sont fréquemment utilisés pour décrire l'IA forte, et il est donc utile de les définir brièvement :

L'intelligence artificielle, selon John McCarthy (lien externe à IBM), est « la science et l'ingénierie qui consiste à fabriquer des machines intelligentes, en particulier des programmes informatiques intelligents ». Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l'intelligence humaine, mais l'IA ne doit pas se limiter aux méthodes qui sont biologiquement observables ».

L'apprentissage automatique est un sous-domaine de l'intelligence artificielle. Les modèles classiques (non profonds) d'apprentissage automatique nécessitent une intervention humaine plus importante pour segmenter les données en catégories (c'est-à-dire par l'apprentissage de fonctions).

L'apprentissage en profondeur est également un sous-domaine de l'apprentissage automatique, qui tente d'imiter les interconnexions du cerveau humain à l'aide de réseaux de neurones. Ses réseaux de neurones artificiels sont constitués de couches de modèles qui identifient des modèles dans un ensemble de données. Ils s'appuient sur un grand volume de données d'entraînement pour apprendre avec précision, ce qui exige par la suite du matériel plus puissant, comme des GPU ou des TPU. Les algorithmes d'apprentissage en profondeur sont fortement associés à l'IA de dimension humaine.    

Pour en savoir plus sur les nuances entre ces  technologies, consultez « Différence entre l'IA, l'apprentissage automatique et l'apprentissage en profondeur ».

Applications d'apprentissage en profondeur

L'apprentissage en profondeur permet de bien gérer les problèmes complexes, ce qui explique qu'il soit utilisé aujourd'hui dans de nombreuses technologies innovantes et émergentes. Les algorithmes d'apprentissage en profondeur sont appliqués dans divers domaines. Voici quelques exemples :

  • Voitures autonomes : Google et Elon Musk ont montré que les voitures autonomes sont possibles. Cependant, elles nécessitent davantage de données d'entraînement et de tests en raison des diverses actions qu'elles doivent prendre en compte, comme céder le passage ou identifier des débris sur la route. À mesure que la technologie arrive à maturité, elle devra surmonter l'obstacle humain de l'adoption, car les sondages indiquent que peu de conducteurs sont prêts à l'utiliser.
  • Reconnaissance vocale : La reconnaissance vocale, comme les agents conversationnels IA et les agents virtuels, représente une part importante du traitement du langage naturel. Les données audio sont beaucoup plus difficiles à traiter par l'IA, car de nombreux facteurs, tels que le bruit de fond, les dialectes, les difficultés d'élocution et d'autres influences, peuvent compliquer la tâche de l'IA pour convertir les données en quelque chose d'exploitable par l'ordinateur.
  • Reconnaissance des modèles : L'utilisation de réseaux de neurones profonds améliore la reconnaissance des modèles dans diverses applications. En découvrant des modèles de points de données utiles, l'IA peut filtrer les informations non pertinentes, établir des corrélations utiles et améliorer l'efficacité du traitement des données volumineuses qui risquent d'être négligées par les êtres humains.
  • Programmation informatique : L'IA faible a connu un certain succès dans la production de textes significatifs, ce qui a conduit à des avancées dans le codage. Tout récemment, OpenAI a lancé GPT-3, un logiciel open source capable d'écrire du code et des programmes informatiques simples avec des instructions très limitées pour automatiser le développement de programmes.
  • Reconnaissance d'images : La catégorisation d'images peut prendre beaucoup de temps si elle est effectuée manuellement. Toutefois, des adaptations spéciales des réseaux de neurones profonds, comme DenseNet, qui relie chaque couche à toutes les autres couches du réseau de neurones, ont amélioré la précision de la reconnaissance d'images.
  • Recommandations contextuelles : Les applications d'apprentissage en profondeur peuvent tenir compte d'un contexte beaucoup plus large lorsqu'elles formulent des recommandations, notamment des modèles de compréhension du langage et des prédictions comportementales.
  • Vérification des faits : L'université de Waterloo a récemment publié un outil qui permet de détecter les fausses informations en vérifiant les informations contenues dans les articles et en les comparant à d'autres sources d'information.
Solutions connexes
Agent conversationnel IA

Watson Assistant est l'agent conversationnel IA de l'entreprise. Cette technologie d'intelligence artificielle d'entreprise permet aux utilisateurs de créer des solutions d'IA conversationnelles.

Explorer les agents conversationnels IA
Agents virtuels

IBM Watson Assistant fournit aux clients des réponses rapides, cohérentes et précises sur tout type d'application, d'appareil ou de canal.

Explorer les agents virtuels
Ressources L'éthique de l'IA avancée aujourd'hui

Découvrez comment mettre en pratique les principes de l'éthique de l'IA.

Pour aller plus loin

IBM est un leader dans le développement de technologies basées sur l'IA pour les entreprises et a ouvert la voie à l'avenir des systèmes d'apprentissage automatique pour de nombreux secteurs.

Explorer IBM Watson®