Qu’est-ce que les hallucinations d’IA ?

Deux femmes d’affaires travaillant ensemble sur une tablette numérique dans un bureau moderne

Qu’est-ce que les hallucinations d’IA ?

L’hallucination d’IA est un phénomène dans lequel un grand modèle de langage (LLM), souvent un chatbot d’IA générative ou un outil de vision par ordinateur perçoit des modèles ou des objets inexistants ou imperceptibles pour les observateurs humains, créant ainsi des résultats absurdes ou totalement erronés.

En règle générale, si un utilisateur fait une demande à un outil d’IA générative, il souhaite un résultat qui répond de manière appropriée à la demande (c’est-à-dire une réponse correcte à une question). Cependant, il arrive que les algorithmes d’IA produisent des résultats qui ne sont pas basées sur des données d’apprentissage, sont mal décodées par le transformer ou ne suivent aucun modèle identifiable. En d’autres termes, il « hallucine » la réponse.

Le terme peut paraître paradoxal, étant donné que les hallucinations sont généralement associées au cerveau humain ou animal, et non à celui des machines. Mais d’un point de vue métaphorique, l’hallucination décrit avec précision ces résultats, en particulier dans le cas de la reconnaissance d’images et de formes (où les résultats peuvent être véritablement surréalistes en apparence).

Les hallucinations associées à l’IA sont similaires à la façon dont les humains voient parfois des chiffres dans les nuages ou des visages sur la surface de la lune. Dans le cas de l’IA, ces erreurs d’interprétation sont dues à divers facteurs, notamment le surajustement, le biais/inexactitude des données d’entraînement et la complexité élevée du modèle.

Prévenir les problèmes liés aux technologies génératives et open source peut s’avérer difficile. Voici quelques exemples notables d’hallucination d’IA :

  • Le chatbot Bard de Google a affirmé à tort que le télescope spatial James Webb avait capturé les premières images au monde d’une planète en dehors de notre système solaire.1
     

  • L’IA du chat de Microsoft, Sydney, avoue être tombée amoureuse des utilisateurs et avoir espionné des employés de Bing.2

  • Meta a retiré sa démo de Galactica LLM en 2022, après avoir fourni aux utilisateurs des informations inexactes, parfois fondées sur des préjugés.

Bien que bon nombre de ces problèmes aient depuis été abordés et résolus, il est facile de comprendre comment, même dans les meilleures circonstances, l’utilisation d’outils d’IA peut avoir des conséquences imprévues et indésirables.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets. 

Implications de l’hallucination d’IA

L’hallucination d’IA peut avoir des conséquences importantes pour les applications du monde réel. Par exemple, un modèle d’IA destiné aux soins de santé peut identifier à tort une avec l’un ou l’autre, ce qui implique des interventions médicales inutiles. Les problèmes d’hallucination de l’IA peuvent également contribuer à la diffusion de données erronées. Si, par exemple, des bots hallucinants répondent à des questions sur une urgence en cours avec des informations qui n’ont pas été vérifiées, ils peuvent rapidement diffuser des fausses alertes qui nuisent aux efforts d’atténuation. Le biais d’entrée constitue l’une des principales sources d’hallucination dans les algorithmes de machine learning. Si un modèle d’IA est entraîné sur un jeu de données comprenant des données biaisées ou non représentatives, il peut halluciner des modèles ou des caractéristiques qui reflètent ces biais.

Les modèles d’IA peuvent également être vulnérables aux attaques adverses, dans lesquelles de mauvais acteurs manipulent les résultats d’un modèle IA en modifiant subtilement les données d’entrée. Dans les tâches de reconnaissance d’images, par exemple, une attaque adverse peut consister à ajouter une petite quantité de bruit spécialement conçu à une image, ce qui amène l’IA à la classer de manière erronée. Cela peut devenir un problème de sécurité important, en particulier dans des domaines sensibles tels que la cybersécurité et les technologies des véhicules autonomes. Les chercheurs en IA développent constamment des garde-fous pour protéger les outils d’IA contre les attaques. Des techniques telles que l’entraînement contradictoire, qui consiste à entraîner le modèle sur un mélange d’exemples normaux et contradictoires, posent des problèmes de sécurité. Cependant, la vigilance est primordiale lors des phases d’entraînement et de vérification des faits.

AI Academy

Confiance, transparence et gouvernance dans l’IA

La confiance est sans doute le sujet dominant dans le domaine de l’intelligence artificielle. C’est aussi un sujet en tous points passionnant. Nous aborderons des questions telles que les hallucinations, les biais et les risques, et partagerons les étapes à suivre pour adopter l’IA de manière éthique, responsable et équitable.

Prévenir les hallucinations d’IA

Le meilleur moyen d’atténuer l’impact des hallucinations d’IA est de les stopper avant qu’elles ne soient effectives. Voici quelques mesures à prendre pour assurer le bon fonctionnement de vos modèles IA :

Utiliser des données d’apprentissage de haute qualité

Les modèles d’IA générative s’appuient sur des données d’entrée pour accomplir des tâches, de sorte que la qualité et la pertinence des jeux de données d’entraînement dicteront le comportement du modèle et la qualité de ses sorties. Afin d’éviter les hallucinations, assurez-vous que les modèles IA sont entraînés sur des données diversifiées, équilibrées et bien structurées. Cela permettra à votre modèle de minimiser les biais de sortie, de mieux comprendre ses tâches et de produire des résultats plus efficaces.

Définir l’objectif de votre modèle IA

Le fait de décrire de manière détaillée comment vous allez utiliser le modèle IA, ainsi que les limites relatives à son utilisation, contribuera à réduire les hallucinations. Votre équipe ou votre organisation doit établir les responsabilités et les limites du système d’IA choisi. Le système sera ainsi plus efficace et minimisera les résultats « hallucinants » et non pertinents.

Utiliser des modèles de données

Les modèles de données fournissent aux équipes un format prédéfini, ce qui augmente la probabilité qu’un modèle IA produise des résultats conformes aux directives prescrites. L’utilisation de modèles de données garantit la cohérence des résultats et réduit la probabilité que le modèle produise des résultats erronés.

Limiter les réponses

Les modèles IA génèrent souvent des hallucinations, car ils n’ont pas de contraintes qui limitent les résultats possibles. Pour éviter ce problème et améliorer la cohérence globale et l’exactitude des résultats, définissez les limites des modèles IA à l’aide d’outils de filtrage et/ou de seuils probabilistes clairs.

Tester et affiner le système en permanence

Pour éviter les hallucinations, il est essentiel de tester rigoureusement votre modèle IA avant de l’utiliser et de l’évaluer en permanence. Ces processus améliorent les performances globales du système et permettent aux utilisateurs d’ajuster et/ou de réentraîner le modèle au fur et à mesure que les données vieillissent et évoluent.

S’appuyer sur la surveillance humaine

S’assurer qu’un être humain valide et examine les résultats de l’IA est une dernière mesure de protection contre les hallucinations. L’implication d’une supervision humaine garantit que, si l’IA a des hallucinations, un humain sera disponible pour les filtrer et les corriger. Un réviseur humain peut également offrir une expertise en la matière qui améliore sa capacité à évaluer le contenu de l’IA en termes d’exactitude et de pertinence par rapport à la tâche.

Applications d’hallucination de l’IA

Bien que l’hallucination de l’IA soit certainement un résultat indésirable dans la plupart des cas, elle présente également une série de cas d’utilisation intuitifs qui peuvent aider les organisations à tirer parti de son potentiel créatif de manière positive. Voici quelques exemples :

Art et design

L’hallucination d’IA propose une nouvelle approche de la création artistique en fournissant aux artistes, designers et autres créatifs un outil leur permettant de créer des images visuellement époustouflantes et imaginatives. Grâce aux capacités hallucinatoires de l’intelligence artificielle, les artistes peuvent produire des images surréalistes et oniriques qui peuvent générer de nouvelles formes et de nouveaux styles artistiques.

Visualisation et interprétation des données

L’hallucination de l’IA peut rationaliser la visualisation des données en exposant de nouvelles connexions et en offrant d’autres perspectives sur des informations complexes. Cela peut être particulièrement utile dans des domaines tels que la finance, où la visualisation des tendances complexes du marché et des données financières facilite la prise de décision et l’analyse des risques plus nuancées.

Jeu et réalité virtuelle (VR)

L’hallucination de l’IA améliore également les expériences immersives dans les jeux et la réalité virtuelle. L’utilisation de modèles IA pour halluciner et générer des environnements virtuels peut aider les développeurs de jeux et les concepteurs de réalité virtuelle à imaginer de nouveaux mondes qui feront passer l’expérience utilisateur à un niveau supérieur. Les hallucinations peuvent également apporter une touche de surprise, d’imprévisibilité et de nouveauté aux expériences de jeu.

Solutions connexes
IBM watsonx.governance

Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.

Découvrir watsonx.governance
Solutions de gouvernance de l’IA

Découvrez comment la gouvernance de l’IA peut contribuer à renforcer la confiance de vos employés dans l’IA, à accélérer l’adoption et l’innovation, et à améliorer la confiance des clients.

Découvrir les solutions de gouvernance de l’IA
Services de conseil en gouvernance de l’IA

Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.

Découvrir les services de gouvernance de l’IA
Passez à l’étape suivante

Dirigez, gérez et surveillez votre IA à l’aide d’un portefeuille unique pour favoriser une IA responsable, transparente et explicable.

Découvrez watsonx.governance Réserver une démo live
Notes de bas de page

1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29 mars 2023.

2 ChatGTP and the Generative AI Hallucinations, Medium, 15 mars 2023.

3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18 novembre 2022.