L’intelligence artificielle explicable (ou XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats créés par les algorithmes de machine learning.
L'IA explicable est utilisée pour décrire un modèle d'IA, son impact attendu et ses biais potentiels. Elle permet de caractériser la précision, l'équité, la transparence et les résultats du modèle dans la prise de décision alimentée par l'IA. L'IA explicable est cruciale pour une organisation, car elle permet d'instaurer un climat de confiance lors de la mise en production de modèles IA. L'explicabilité de l'IA aide également une organisation à adopter une approche responsable du développement de l'IA.
A mesure que l'IA se perfectionne, les humains ont pour défi de comprendre et de retracer comment l'algorithme est parvenu à chaque résultat. L'ensemble du processus de calcul est retranscrit dans ce que l'on appelle communément une « boîte noire » créée directement à partir des données et impossible à interpréter.Même les ingénieurs ou data scientists qui créent l'algorithme ne peuvent pas comprendre ou expliquer ce qui se passe exactement « dans sa tête » ou comment il arrive à un résultat donné.
Il y a de nombreux avantages à comprendre comment un système basé sur l’IA a abouti à un résultat spécifique. L’explicabilité peut aider les développeurs à vérifier que le système fonctionne comme prévu, être nécessaire pour répondre aux normes réglementaires, ou encore être importante pour permettre aux personnes concernées par une décision de contester ou de modifier ce résultat.¹
Une organisation ne doit pas suivre l'IA sans esprit critique : il est crucial qu'elle comprenne parfaitement son processus décisionnel, ce que permet un modèle de contrôle et de responsabilité de l'IA.L'IA explicable peut aider les humains à cerner et à expliquer les algorithmes de machine learning (ML), l'apprentissage en profondeur et les réseaux neuronaux.
Les modèles de ML sont souvent considérés comme des boîtes noires impossibles à interpréter. Les réseaux neuronaux utilisés dans l'apprentissage en profondeur sont parmi les plus difficiles à comprendre pour un être humain. Les préjugés, souvent fondés sur la race, le sexe, l'âge ou le lieu de résidence, constituent depuis longtemps un risque pour l'entraînement des modèles d'IA. En outre, les performances des modèles d'IA peuvent dériver ou se dégrader, car les données de production diffèrent évidemment du contenu de formation. Il est donc crucial pour une entreprise de surveiller et de gérer en continu les modèles afin de promouvoir l'explicabilité de l'IA tout en mesurant l'impact de leur utilisation sur son activité. L'IA explicable contribue également à promouvoir la confiance de l'utilisateur final, l'auditabilité des modèles et l'utilisation productive de l'IA. Elle permet également d'atténuer les risques de conformité, de droit, de sécurité et de réputation liés aux résultats produits par l'IA.
L'IA explicable est un élément central de l'IA responsable, une méthodologie permettant de déployer à grande échelle des méthodes d'IA en entreprise de façon équitable, explicable et responsable.³ Pour adopter l'IA de manière responsable, les organisations doivent intégrer des principes éthiques dans les applications et les processus IA en créant des systèmes d'IA fondés sur la confiance et la transparence.
Grâce à l’IA explicable (ainsi qu’à l’interprétation du machine learning), les organisations peuvent accéder au processus décisionnel sous-jacent de la technologie IA et procéder à des ajustements si nécessaire. L’IA explicable peut améliorer l’expérience utilisateur d’un produit ou service en renforçant la confiance que les clients finaux auront dans les décisions basées sur l’IA. Quel niveau de confiance doit-on attendre des systèmes d’IA pour se fier à leurs décisions et comment peuvent-ils corriger les erreurs qui surviennent ?⁴
Alors que l'IA devient de plus en plus avancée, les processus de ML doivent être compris et contrôlés pour garantir l'exactitude des résultats des modèles d'IA. Examinons la différence entre l'IA et la XAI, les méthodes et les techniques utilisées pour transformer l'IA en XAI, et la différence entre interprétation et explication des processus d'IA.
Quelle est la différence entre l’IA « standard » et l’IA explicable ? La XAI déploie des techniques et des méthodes spécifiques pour garantir que chaque décision prise au cours du processus de ML peut être retracée et expliquée. L’IA, quant à elle, parvient souvent à un résultat à l’aide d’un algorithme de ML, mais les architectes des systèmes d’IA ne comprennent pas entièrement comment celui-ci est parvenu à son résultat. Il est donc difficile d’en vérifier l’exactitude, ce qui entraîne une perte de contrôle, de responsabilité et d’auditabilité.
Les techniques de XAI reposent sur trois axes principaux. La précision et la traçabilité des prédictions répondent aux exigences technologiques, tandis que la compréhension des décisions répond aux besoins humains. L’IA explicable, en particulier le machine learning explicable, sera essentielle pour comprendre, faire confiance à et gérer efficacement une génération émergente de partenaires artificiels intelligents.⁵
La précision est un élément clé de la réussite de l’utilisation de l’IA dans les opérations quotidiennes. En effectuant des simulations et en comparant les résultats de la XAI à ceux du jeu de données d’entraînement, il est possible de déterminer la précision de chaque prédiction. La technique la plus utilisée à cet effet est LIME (pour Local Interpretable Model-Agnostic Explanations), qui explique la prédiction des classificateurs par l’algorithme ML.
La traçabilité est une autre technique clé de la XAI. Cela se fait, par exemple, en limitant la manière dont les décisions peuvent être prises et en établissant un champ d’application plus étroit pour les règles et la fonctionnalité du ML. Parmi les techniques de traçabilité XAI, citons DeepLIFT (pour Deep Learning Important FeaTures), qui compare toute activation de neurone à son neurone de référence et montre un lien traçable entre chaque neurone activé, et même les dépendances entre eux.
C’est le facteur humain. De nombreuses personnes se méfient de l’IA. Or, pour l’utiliser efficacement, elles doivent apprendre à lui faire confiance en comprenant comment et pour quelles raisons elle prend ses décisions.
L'interprétabilité est la mesure dans laquelle un observateur peut comprendre la cause d'une décision. Il s'agit du taux de réussite que les humains peuvent prédire pour les résultats d'une IA, tandis que l'explicabilité va plus loin et examine la manière dont l'IA est parvenue aux résultats.
L'IA explicable et l'IA responsable suivent des objectifs similaires, mais avec une approche différente. Voici les grandes différences entre l'IA explicable et l'IA responsable :
L'IA explicable permet de revoir et d'améliorer les performances des modèles tout en aidant les parties prenantes à comprendre les comportements de l'IA.Une étude comportementale des modèles par le suivi des informations sur l'équité, la qualité, la dérive et l'état du déploiement est indispensable pour développer l'IA à grande échelle.
L'évaluation continue des modèles permet de comparer leurs prédictions, de quantifier les risques et d'optimiser leurs performances : un processus qui peut être accéléré en affichant des valeurs positives et négatives sur les comportements des modèles avec les données qui génèrent l'explication.Une plateforme pour les données et l'IA peut générer des attributions de fonctionnalité pour les prédictions des modèles et permettre aux équipes d'étudier visuellement le comportement des modèles à l'aide de graphiques interactifs et de documents exportables.
Renforcez votre confiance dans l'IA et déployez rapidement vos modèles en production.Assurez l'interprétabilité et l'explicabilité des modèles d'IA. Simplifiez le processus d'évaluation des modèles tout en augmentant la transparence et la traçabilité des modèles.
Suivez et gérez systématiquement les modèles afin d'optimiser les résultats métier. Évaluez et améliorez en permanence les performances des modèles et affinez vos efforts de développement grâce à une évaluation continue.
Rendez vos modèles d'IA explicables et transparents. Gérez la réglementation, la conformité, les risque et les autres exigences. Minimisez les frais liés aux inspections manuelles et aux erreurs coûteuses. Atténuez les risques de biais involontaire.
Considérez ce qui suit pour obtenir les meilleurs résultats avec l'IA explicable.
Équité et débiaisage : gérez et contrôlez l’équité. Examinez votre déploiement pour y déceler d’éventuels préjugés.
Atténuation de la dérive : analysez votre modèle et faites des recommandations basées sur le résultat le plus logique. Signalez les modèles qui s’écartent des résultats escomptés.
Gestion des risques : quantifiez et atténuez le risque de modèle. Mettez en place des alertes lorsqu’un modèle n’est pas performant. Cherchez à comprendre ce qui s’est passé lorsque les écarts persistent.
Automatisation du cycle de vie : créez, exécutez et gérez vos modèles dans le cadre de services de données et d’IA intégrés. Unifiez les outils et les processus dans une même plateforme pour contrôler les modèles et partager les résultats. Expliquez les dépendances des modèles de machine learning.
Compatibilité multicloud : déployez des projets d’IA dans des clouds hybrides publics, privés et sur site. Renforcez la confiance grâce à une IA explicable.
Découvrez l’impact du règlement européen sur l’IA pour les entreprises, comment vous préparer, limiter les risques et concilier réglementation et innovation.
Apprenez-en plus sur les nouveaux défis de l’IA générative, la nécessité de gouverner les modèles d’IA et de ML et les étapes à suivre pour créer un cadre des exigences fiable, transparent et explicable.
Découvrez comment favoriser des pratiques éthiques et conformes grâce à un portefeuille de produits d’IA dédiés aux modèles d’IA générative.
Avec watsonx.governance, apprenez à mieux comprendre comment assurer l’équité, gérer les dérives, maintenir la qualité et améliorer l’explicabilité.
Nous avons interrogé 2 000 entreprises à propos de leurs initiatives d’IA pour découvrir ce qui fonctionne, ce qui ne fonctionne pas et comment progresser.
Découvrez comment choisir le modèle de fondation d’IA le mieux adapté à votre cas d’utilisation.
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.
Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.
¹ « Explainable AI », The Royal Society, 28 novembre 2019.
² « Explainable Artificial Intelligence », Jaime Zornoza, 15 avril 2020.
³ « Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI », ScienceDirect, juin 2020.
⁴ « Understanding Explainable AI », Ron Schmelzer, contributeur de Forbes, 23 juillet 2019.
⁵ « Explainable Artificial Intelligence (XAI) », Dr Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA).