Test de Turing
Alan Turing a développé le test de Turing en 1950 et en a parlé dans son article, « Computing Machinery and Intelligence » (lien externe à ibm.com). Connu à l’origine sous le nom d'Imitation Game (jeu des imitations), le test évalue si le comportement d’une machine peut être distingué de celui d’un humain. Dans ce test, il y a une personne connue sous le nom d'« interrogateur » qui cherche à identifier une différence entre les productions générées par ordinateur et les sorties générées par l’homme à travers une série de questions. S'il ne peut pas discerner de manière fiable les machines des sujets humains, la machine réussit le test. Toutefois, s'il peut identifier avec précision les réponses humaines, il ne pourra pas qualifier la machine d'intelligente.
Bien qu'il n'y ait pas de lignes directrices d'évaluation définies pour le test de Turing, M. Turing a spécifié qu'un évaluateur humain n'aurait que 70 % de chances de prédire correctement une conversation générée par un humain après 5 minutes. Le test de Turing a introduit une acceptation générale de l’idée de l’intelligence artificielle.
Cependant, le test de Turing original ne teste qu’un ensemble de compétences : la production de texte ou les échecs, par exemple. L’IA forte doit être capable d’effectuer toute une série de tâches de la même façon ce qui conduit au développement de l’Extended Turing Test. Ce test évalue les performances textuelles, visuelles et auditives de l’IA et les compare à une sortie générée par des humains. Cette version est utilisée dans le célèbre concours Loebner Prize, dans lequel un juge humain doit déterminer si la sortie a été créée par un être humain ou par un ordinateur.
Chinese Room Argument (CRA)
Le Chinese Room Argument a été créé par John Searle en 1980. Dans son rapport, il aborde la définition de la compréhension et de la pensée, affirmant que les ordinateurs ne seront jamais en mesure de le faire. Dans cet extrait, publié sur le site de Stanford (lien externe à ibm.com), il résume bien son argument,
« Le calcul est défini de manière purement formelle ou syntaxique, alors que les esprits ont des contenus mentaux ou sémantiques réels, et nous ne pouvons pas passer de la syntaxe à la sémantique simplement en ayant les opérations syntaxiques et rien d’autre… Un système, moi, par exemple, n’acquerrait pas une compréhension du chinois simplement en passant par les étapes d’un programme informatique qui simulerait le comportement d’un locuteur chinois (p. 17). »
Le Chinese Room Argument propose le scénario suivant :
Imaginez qu'une personne, qui ne parle pas chinois, travaille dans une pièce fermée. Dans la pièce, il y a un livre avec des règles, des phrases et des instructions en chinois. Une autre personne, qui parle couramment le chinois, passe des notes rédigées en chinois dans la pièce. À l’aide du vocabulaire linguistique, la personne à l’intérieur de la pièce peut sélectionner la réponse appropriée et la transmettre au locuteur chinois.
Bien que la personne à l’intérieur de la pièce ait pu fournir la réponse correcte à l’aide d’un vocabulaire, elle ne parle toujours pas ou ne comprend pas le chinois ; il s’agissait simplement d’une simulation de la compréhension en faisant correspondre la question ou les déclarations avec les réponses appropriées. M. Searle affirme qu’une IA forte nécessiterait un véritable esprit pour en être consciente ou capable de comprendre. Le Chinese Room Argument illustre les failles du test de Turing, démontrant des différences dans les définitions de l'intelligence artificielle.