IA forte
Fond bleu et noir
IA forte

Découvrez l'IA forte, une forme théorique de l'IA qui reproduit les fonctions humaines telles que le raisonnement, la planification et la résolution de problèmes.

Liens connexes

Éthique de l'IA IBM

Principes de confiance et de transparence IBM


Qu'est-ce que l'IA forte ?

L'intelligence  artificielle forte  (IA), également appelée  intelligence artificielle générale (IAG) ou IA générale, est une forme théorique d'IA utilisée pour décrire un certain état d'esprit dans le développement de l'IA. Si les chercheurs parviennent à développer une IA forte, la machine aura une intelligence égale à celle des  êtes humains ; elle aura une conscience de soi capable de résoudre des problèmes, d'apprendre et de planifier l'avenir.

L'IA forte  vise à créer des machines intelligentes qui ne se distinguent pas de l'esprit  humain. Mais, à l'instar d'un enfant, la machine IA devra apprendre par le biais d'apports et d'expériences, en progressant constamment et en améliorant ses capacités au fil du temps.

Alors  que les chercheurs en IA, tant dans le monde universitaire que dans le secteur privé, s'investissent dans la création d'une intelligence artificielle générale (IAG), celle-ci n'existe aujourd'hui qu'à l'état de concept théorique : elle n'est pas une réalité tangible. Bien que certaines personnes, comme Marvin Minsky, ont été citées comme étant excessivement optimistes quant à ce que nous pourrions accomplir dans quelques décennies dans le domaine de l'IA, d'autres diraient que des systèmes d'IA forts ne peuvent même pas être développés. Tant que les mesures du succès, telles que l'intelligence et la compréhension, ne sont pas explicitement définies, ils ont raison de le penser. Pour l'instant, beaucoup utilisent le test de Turing pour évaluer l'intelligence d'un système d'IA.


Tests d'IA forte

Test de Turing


Alan Turing a  mis au point le test éponyme  en 1950 et l'a évoqué dans son article intitulé  « Computing Machinery and Intelligence »  (PDF, 566 Ko) (lien externe à IBM). Appelé « Jeu d'imitation » à l'origine, ce test évalue si le comportement d'une machine peut être distingué de celui d'un humain. Dans ce test, fait intervenir une personne appelée « interrogateur » qui cherche à identifier une différence entre les résultats générés par l'ordinateur et ceux générés par l'homme à travers une série de questions. Si l'interrogateur ne peut pas discerner de manière fiable les machines des êtes humains, il réussit le test. Si l'évaluateur peut identifier correctement les réponses des êtres humains, la machine ne pourra pas être qualifiée d'intelligente.

Bien qu'il n'y ait pas de directives d'évaluation établies pour le test de Turing, Turing a précisé qu'un évaluateur humain n'aura que 70 % de chances de prédire correctement une conversation humaine par rapport à une conversation générée par ordinateur après 5 minutes. Le test de Turing a permis de faire accepter l'idée d'une  intelligence artificielle.

Cependant, le test de Turing d'origine ne teste qu'un seul ensemble de compétences, à savoir la lecture de textes ou le jeu d'échecs, par exemple. Une IA forte doit pouvoir accomplir diverses tâches avec la même efficacité, ce qui a conduit au développement du test de Turing étendu. Ce test évalue les performances textuelles, visuelles et auditives de l'IA et les compare aux résultats générés par l'homme. Cette version est utilisée dans le célèbre concours du prix Loebner, où un juge humain devine si le résultat a été créé par un humain ou un ordinateur.

Chinese Room Argument (CRA)


L'expérience la  Chambre chinoise a été créée par  John Searle en 1980. Dans son article, il discute de la définition de la compréhension et de la pensée, affirmant que les ordinateurs ne seraient jamais en mesure d'acquérir ces facultés. Cet extrait de son article, tiré du  site Web de Stanford  (lien externe à IBM), résume bien son argument.

« Le calcul est défini de manière purement formelle ou syntaxique, alors que l'esprit a des contenus mentaux ou sémantiques réels, et nous ne pouvons pas passer du syntaxique au sémantique en ayant simplement les opérations syntaxiques et rien d'autre...Un système, moi, par exemple, n'acquerrait pas une compréhension du chinois simplement en passant par les étapes d'un programme informatique qui simule le comportement d'un locuteur chinois (p. 17) »

L'expérience de la Chambre chinoise propose le scénario suivant :

Imaginez une personne qui ne parle pas chinois, assise, enfermée dans une pièce. Dans la chambre, se trouve un livre avec des règles du chinois et des phrases et des instructions en chinois. Une autre personne, qui parle couramment le chinois, fait passer des notes écrites en chinois dans la pièce. À l'aide du guide de conversation, la personne à l'intérieur de la pièce peut sélectionner la réponse appropriée et la transmettre à l'interlocuteur chinois.

Bien que la personne à l'intérieur de la pièce ait été en mesure de fournir la réponse correcte à l'aide d'un manuel de langue, elle ne parle ni ne comprend toujours pas le chinois ; il s'agissait simplement d'une simulation de compréhension par la mise en correspondance de questions ou d'affirmations avec des réponses appropriées. Searle soutient  que l'IA  forte nécessiterait un esprit réel pour avoir une conscience ou une compréhension. L'expérience de la Chambre chinoise illustre les failles du test de Turing, en démontrant les différences de définition de l' intelligence artificielle.


IA forte et IA faible

L'IA faible, également appelée IA étroite, se concentre sur l'exécution d'une tâche spécifique, comme répondre à des questions sur la base d'une entrée utilisateur ou jouer aux échecs. Elle peut exécuter un type de tâche, mais pas les deux, alors que l'IA forte peut exécuter diverses fonctions, et éventuellement apprendre à résoudre de nouveaux problèmes. L'IA faible dépend de l'intervention humaine pour définir les paramètres de ses algorithmes d'apprentissage et fournir les données d'entraînement pertinentes pour garantir la précision. Si l'intervention humaine accélère la phase de croissance de l'IA forte, elle n'est pas nécessaire et, au fil du temps, elle développe une conscience semblable à celle de l'être humain au lieu de la simuler, comme l'IA faible. Les voitures autonomes et les assistants virtuels, comme Siri, sont des exemples d'IA faible.  


Tendances de l'IA forte

Bien qu'il n'existe pas d'exemples clairs d'intelligence artificielle  forte , le domaine de l'IA innove rapidement.  Une autre théorie de l'IA, appelée  superintelligence artificielle (SIA), super intelligence ou super IA, a émergé. Ce type d'IA dépasse  l'intelligence et les capacités inhumaines  de l'IA forte. Cependant, la super IA reste purement spéculative, car nous n'avons pas encore obtenu d'exemples d'IA forte.

Cela dit, il existe des domaines où l'IA joue un rôle plus important, par exemple :

  • Cybersécurité : l'intelligence artificielle  jouera plus de rôles dans les mesures de cybersécurité des organisations, notamment dans la détection des violations, la surveillance, le renseignement sur les menaces, la réponse aux incidents et l'analyse des risques.
  • Divertissement et création de contenu : les programmes informatiques  sont déjà de plus en plus performants dans la production de contenu, qu'il s'agisse de rédaction, de poésie, de jeux vidéo ou même de films. L'application d'IA de génération de texte GBT-3 d'OpenAI crée déjà du contenu qu'il est presque impossible de distinguer d'un texte rédigé par des êtres humains.
  • Reconnaissance et prédiction du comportement : les algorithmes de prédiction rendront l'IA plus forte, qu'il s'agisse d'applications dans les prévisions météorologiques et boursières ou, plus intéressant encore, de prédictions du comportement humain. Cela soulève également les questions relatives aux préjugés implicites et à l'éthique de l'IA. Certains chercheurs  de la communauté de l'IA militent en faveur d'un ensemble de règles anti-discriminatoires, souvent associées au hashtag #AIresponsable.

Termes et définitions de l'IA forte

Les termes  intelligence artificielle, apprentissage automatique et apprentissage en profondeur sont souvent utilisés dans le mauvais contexte. Ces termes sont fréquemment utilisés pour décrire l'IA forte, et il est donc utile de les définir brièvement :

L'intelligence artificielle , définie par  John McCarthy  (PDF, 109 Ko) (lien externe à IBM), est « la science et l'ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents ». Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l'intelligence humaine, mais l'IA ne doit pas se limiter aux méthodes qui sont biologiquement observables."

L'

apprentissage automatique  est un sous-domaine de l'intelligence artificielle. Les modèles classiques (non profonds) d'apprentissage automatique nécessitent une intervention humaine plus importante pour segmenter les données en catégories (c'est-à-dire par l'apprentissage de fonctions).

L'

apprentissage profond  est également un sous-domaine de l'apprentissage automatique, qui tente d'imiter les interconnexions du cerveau humain à l'aide de réseaux neurones. Ses réseaux de neurones artificiels sont constitués de couches de modèles qui identifient des modèles dans un ensemble de données. Ils s'appuient sur un volume élevé de données d'entraînement pour apprendre avec précision, ce qui exige par la suite du matériel plus puissant, comme des GPU ou des TPU. Les algorithmes d'apprentissage en profondeur sont plus fortement associés à l'IA de niveau humain.    

Pour en savoir plus sur les différences nuancées entre ces  technologies, consultez « L'IA, apprentissage automatique et apprentissage en profondeur : Quelle est la différence ? »


Applications d'apprentissage en profondeur

L'apprentissage en profondeur permet de bien gérer les problèmes complexes , ce qui explique qu'il soit utilisé aujourd'hui dans de nombreuses technologies innovantes et émergentes. Les algorithmes d'apprentissage en profondeur sont appliqués dans divers domaines. Voici quelques exemples :

  • Voitures autonomes : Google  et  Elon Muskh  ont montré que les  voitures autonomes  sont possibles. Cependant, elles nécessitent davantage de données d'entraînement et de tests en raison des diverses activités qu'elles doivent prendre en compte, comme céder le passage ou identifier des débris sur la route. À mesure que la technologie arrive à maturité, elle devra surmonter l'obstacle humain de l'adoption, car les sondages indiquent que de nombreux conducteurs ne sont pas prêts à l'utiliser.
  • Reconnaissance vocale : la reconnaissance vocale, comme les agents conversationnels d'IA et les agents virtuels, est un grand composant du traitement du langage naturel . Les données audio sont beaucoup plus difficiles à traiter pour une IA, car de nombreux facteurs, tels que le bruit de fond, les dialectes, les difficultés d'élocution et d'autres facteurs, peuvent compliquer la tâche de l'IA pour convertir les données en quelque chose que l'ordinateur peut utiliser.
  • Reconnaissance des modèles : l'utilisation de réseaux de neurones profonds améliore la reconnaissance des modèles dans diverses applications. En découvrant des modèles de points de données utiles, l'IA peut filtrer les informations non pertinentes, établir des corrélations utiles et améliorer l'efficacité du calcul Big Data qui peuvent généralement être négligées par les êtres humains.
  • Programmation informatique : l'IA faible a connu un certain succès dans la production de textes significatifs, ce qui a conduit à des avancées dans le domaine du codage. Tout récemment, OpenAI a publié GPT-3, un logiciel open source capable d'écrire du code et des  programmes informatiques simples avec des instructions très limitées, ce qui permet d'automatiser le développement de programmes.
  • Reconnaissance d'images : la catégorisation d'images peut prendre beaucoup de temps si elle est effectuée manuellement. Toutefois, des adaptations spéciales des réseaux de neurones profonds, comme DenseNet, qui relie chaque couche à toutes les autres couches du réseau de neurones, ont amélioré la précision de la reconnaissance d'images.
  • Recommandations contextuelles : les applications d'apprentissage en profondeur  peuvent tenir compte d'un contexte beaucoup plus large lorsqu'elles formulent des recommandations, notamment des modèles de  compréhension du langage  et des prédictions comportementales.
  • Vérification des faits  : l'université de Waterloo a récemment publié un outil qui permet de détecter les fausses informations en vérifiant les informations contenues dans les articles en les comparant à d'autres sources d'information.

Solutions connexes

Agents conversationnels d'IA

Watson Assistant est l'agent conversationnel d'IA pour l'entreprise. Cette technologie d'intelligence artificielle d'entreprise permet aux utilisateurs de créer des solutions d'IA conversationnelles.


Événements virtuels

IBM Watson Assistant fournit aux clients des réponses rapides, cohérentes et précises, quels que soient l'application, le dispositif ou le canal.