Des informations précises sont l’élément vital des entreprises modernes. Celles-ci s’appuient sur ces données pour prendre des décisions stratégiques dans tous les domaines, de la gestion de la chaîne d’approvisionnement au marketing produit.
Si l’intelligence artificielle (IA) peut améliorer la prise de décision fondée sur les données, elle peut aussi l’entraver. Le contenu généré par l’IA peut être truffé d’erreurs, allant des faux titres d’actualité et des conseils juridiques désastreux aux recettes de pizza utilisant la colle Elmer comme ingrédient clé.1
Parviendrons-nous un jour à ce que ces situations épineuses appartiennent au passé ? Même si les inconditionnels de l’IA veulent y croire, la réponse est probablement non.
Selon Matt Candy d’IBM, les modèles d’IA générative seront toujours vulnérables au risque de produire par inadvertance des informations erronées. « Du fait de leur nature prédictive – ils prédisent et devinent le mot suivant – il y aura toujours un certain risque », explique Matt Candy, directeur associé pour l’IA générative chez IBM Consulting.
Il ajoute que les modèles traditionnels de machine learning (ML) ne sont pas non plus à l’abri de mauvaises informations. « Ces modèles sont des machines statistiques qui, en fait, essaient de prédire un résultat », dit-il. « En fin de compte, ils risquent toujours de prédire une réponse ou un résultat incorrect. »
Heureusement, il existe plusieurs mesures que les entreprises peuvent prendre pour réduire les risques que leurs propres systèmes d’IA produisent et diffusent des informations erronées.
Si ces mesures n’empêchent pas tous les cas de mauvaise information générée par l’IA, des mécanismes de protection existent pour la détecter avant qu’elle ne cause des dommages.
Avant d’aborder les moyens dont disposent les entreprises pour se protéger des informations erronées générées par l’IA, il est important d’examiner de plus près de quoi il s’agit et les concepts qui lui sont associés. Ces concepts sont en grande partie antérieurs à l’utilisation généralisée de l’IA dans les écosystèmes d’information, mais l’influence qu’exerce l’IA sur ces phénomènes est importante.
L’information erronée est une fausse information. Certaines définitions précisent également que l’information erronée n’est pas créée à dessein pour tromper, mais qu’elle est plutôt due à des erreurs.
Dans le cas d’informations erronées générées par l’IA, citons les grands modèles de langage (LLM) qui produisent des sorties inexactes ou absurdes, et les images générées par l’IA dont les représentations sont irréalistes ou erronées (telles que de « vraies personnes » avec trop de bras).
Les hallucinations de l’IA sont une cause fréquente d’informations erronées générées par l’IA. Les hallucinations de l’IA se produisent lorsque les algorithmes d’IA génèrent des sorties qui ne sont pas basées sur des données d’entraînement, sont décodées de manière incorrecte par le transformeur ou ne suivent aucun modèle identifiable.
« Les hallucinations se produisent parce que le modèle d’IA essaie de s’assurer que la langue est fluide, mais aussi parce qu’il s’efforce de rassembler différentes sources d’information », explique Kush Varshney, IBM Fellow chez IBM Research. « Même nous qui sommes des humains, lorsque nous essayons de faire plusieurs choses en même temps, nous pouvons nous tromper. C’est aussi le cas des modèles d’IA qui perdent la trace des informations tout en essayant de rendre la langue fluide, et vice versa. »
La désinformation est parfois considérée comme un type d’information erronée, mais elle se distingue par le fait qu’il s’agit de faux contenus créés pour tromper le public. Ce sont, par exemple, les théories du complot et, plus récemment, les documents audio et visuels fabriqués.
On se souvient des cas de désinformation retentissants à l’approche des élections présidentielles américaines de 2024, rendus possibles par des bots et autres outils d’IA. Parmi ces incidents, citons un appel automatisé se faisant passer pour le président de l’époque et candidat démocrate Joe Biden, et de la diffusion d’images véhiculant de faux soutiens de célébrités au président des Républicains Donald Trump.2,3
Les outils de détection des deepfakes générés par l’IA et d’autres contenus trompeurs et de désinformation ont donné des résultats mitigés, bien que la dernière génération de détecteurs de texte par l’IA se soit révélée plus efficace que les itérations précédentes.4, 5 Parallèlement, des plateformes de médias sociaux telles que TikTok et Facebook ont commencé à étiqueter les contenus générés par l’IA.6
Contrairement aux informations erronées et à la désinformation, les informations malveillantes sont des informations potentiellement préjudiciables fondées sur la réalité et les faits. En effet, elles sont diffusées dans le but de nuire à autrui, individus comme entreprises.
Par exemple, le partage d’informations confidentielles sans autorisation relève de l’information malveillante, une pratique amplifiée par l’IA. Les escrocs peuvent utiliser des outils d’IA générative pour créer des e-mails de phishing sophistiqués et efficaces en vue d’obtenir et de diffuser des informations confidentielles.
Bien qu’il soit impossible de garantir des sorties d’IA totalement exemptes d’erreurs, les entreprises peuvent prendre des mesures efficaces pour réduire la probabilité que leurs systèmes d’IA produisent des informations inexactes ou entièrement fabriquées.
Des données de haute qualité sont cruciales pour la performance des modèles d’IA. Les modèles doivent être entraînés sur des données diversifiées, équilibrées et bien structurées afin de minimiser les risques de biais et d’hallucinations. Les entreprises technologiques et les développeurs d’IA peuvent améliorer la qualité des données d’entraînement en utilisant des outils de préparation et de filtrage des données pour supprimer les données de mauvaise qualité et les contenus haineux, y compris les informations malveillantes.
L’un des outils les plus utilisés pour réduire la probabilité d’hallucinations de l’IA est la génération augmentée par récupération (RAG). La RAG est une architecture qui connecte des modèles d’IA à des sources de données externes, telles que les données organisationnelles d’une entreprise, des revues universitaires et des jeux de données spécialisés. En accédant à ces informations, les chatbots d’IA et d’autres outils peuvent produire un contenu plus précis et spécifique au domaine.
Si les applications de LLM grand public dans ChatGPT d’OpenAI ont suscité l’engouement du public, les entreprises se tournent plutôt vers des modèles d’IA plus petits et plus spécialisés pour mieux répondre à leurs besoins, et moins sujets aux hallucinations.
« Nous avons ces énormes modèles qui sont entraînés sur le plus de données possible », observe M. Candy. « Mais si vous pensez à la plupart des cas d’utilisation en entreprise, vous n’avez pas besoin d’un modèle entraîné sur l’ensemble des œuvres de Shakespeare, Reddit et toutes les autres données accessibles au public. »
Comme les modèles plus petits ont des fenêtres contextuelles plus étroites et utilisent moins de paramètres, leur risque d’hallucination diminue. « Il y a moins de risques de confusion , ajoute Kush Varshney.
Lorsqu’il s’agit d’éviter les dommages causés par des informations erronées générées par l’IA, les mesures visant à atténuer les hallucinations ne sont qu’une partie du puzzle. Les entreprises doivent également mettre en place des stratégies et des outils pour détecter les hallucinations et les résultats inexacts qui parviennent à passer inaperçus.
Les principales plateformes de gouvernance de l’IA et les modèles de fondation intègrent désormais la capacité de détecter les hallucinations. IBM watsonx.governance et la dernière version de Granite Guardian d’IBM (IBM Granite Guardian 3.1 appartenant à la famille de modèles de langage Granite d’IBM conçus pour les entreprises) évaluent tous deux les performances des modèles d’IA générative sur les indicateurs tels que la pertinence des réponses et la « fidélité ».
« Ils appellent cela la « fidélité », ce qui est le contraire de l’hallucination », explique M. Varshney. « Lorsqu’une réponse est fidèle à ses documents sources, ce n’est pas une hallucination. » Granite Guardian 3.1 propose également des capacités pour détecter l’utilisation et la sortie contre-productives de l’IA, telles que le jailbreak, les obscénités et les préjugés sociaux.
Malgré les outils de gouvernance de l’IA, les humains ont toujours un rôle clé à jouer pour empêcher la diffusion d’informations erronées générées par l’IA. Lorsque les entreprises implémentent des systèmes d’IA, elles doivent réfléchir à l’endroit où elles établissent des points de contrôle qui permettent une surveillance humaine, explique Matt Candy. « Nous devons être déterminés à définir des points dans le processus pour les interactions, les contrôles et les contrepoids humains et une prise de décision humaine. »
Cette prise de décision humaine est particulièrement importante, note-t-il, avec l’avènement de puissants agents d’IA capables de prendre en charge des tâches de plus en plus sophistiquées.
Par exemple, si une entreprise du secteur des sciences de la vie peut utiliser plusieurs agents d’IA pour rechercher et rédiger des rapports de conformité sur le développement de nouveaux médicaments, elle affectera toujours un employé humain à l’examen et à la vérification des rapports avant de les transmettre à une autorité publique.
« En fin de compte, il y aura toujours un humain dans la boucle de ce processus, qui vérifie et valide », conclut-il. « Je ne sous-estimerais pas l’importance de la part humaine. »
1 « Google promised a better search experience — now it’s telling us to put glue on our pizza. » The Verge. 23 mai 2024.
2 « A New Orleans magician says a Democratic operative paid him to make the fake Biden robocall. » NBC News. 23 février 2024.
3 « Fake celebrity endorsements become latest weapon in misinformation wars, sowing confusion ahead of 2024 election. » CNN. 22 août 2024.
4, 6 « Using AI to detect AI-generated deepfakes can work for audio — but not always. » NPR. 5 avril 2024.
5 « Robustness of generative AI detection: adversarial attacks on black-box neural text detectors. » International Journal of Speech Technology. 16 octobre 2024.
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Accédez au plein potentiel de votre IA et découvrez comment la gouvernance de l’IA peut contribuer à renforcer la confiance de vos employés dans cette technologie, à accélérer l’adoption et l’innovation, et à améliorer la fidélité des clients.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.