Qu'est-ce que l'IA explicable ?
Abonnez-vous à la newsletter d’IBM
Deux employés assis à un bureau regardant un écran d’ordinateur

L'intelligence artificielle explicable (ou XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats créés par les algorithmes de machine learning. 

L'IA explicable est utilisée pour décrire un modèle d'IA, son impact attendu et ses biais potentiels. Elle permet de caractériser la précision, l'équité, la transparence et les résultats du modèle dans la prise de décision alimentée par l'IA. L'IA explicable est cruciale pour une organisation, car elle permet d'instaurer un climat de confiance lors de la mise en production de modèles d'IA et aide à adopter une approche responsable du développement de l'IA.

A mesure que l'IA se perfectionne, les humains ont pour défi de comprendre et de retracer comment l'algorithme est parvenu à chaque résultat. L'ensemble du processus de calcul est retranscrit dans ce que l'on appelle communément une « boîte noire » créée directement à partir des données et impossible à interpréter.Même les ingénieurs ou data scientists qui créent l'algorithme ne peuvent pas comprendre ou expliquer ce qui se passe exactement « dans sa tête » ou comment il arrive à un résultat donné.

Il y a de nombreux avantages à comprendre comment un système basé sur l'IA a abouti à un résultat spécifique.  L'explicabilité peut aider les développeurs à vérifier que le système fonctionne comme prévu, être nécessaire pour répondre aux normes réglementaires, ou encore être importante pour permettre aux personnes concernées par une décision de contester ou de modifier ce résultat.¹

Comment développer une IA responsable à grande échelle

Pourquoi l'IA explicable est-elle importante ?

Une organisation ne doit pas suivre l'IA sans esprit critique : il est crucial qu'elle comprenne parfaitement son processus décisionnel, ce que permet un modèle de contrôle et de responsabilité de l'IA.L'IA explicable peut aider les humains à cerner et à expliquer les algorithmes de machine learning (ML), l'apprentissage en profondeur et les réseaux neuronaux.

Les modèles de ML sont souvent considérés comme des boîtes noires impossibles à interpréter. Les réseaux neuronaux utilisés dans l'apprentissage en profondeur sont parmi les plus difficiles à comprendre pour un être humain. Les préjugés, souvent fondés sur la race, le sexe, l'âge ou le lieu de résidence, constituent depuis longtemps un risque pour l'entraînement des modèles d'IA. En outre, les performances des modèles d'IA peuvent dériver ou se dégrader, car les données de production diffèrent évidemment du contenu de formation. Il est donc crucial pour une entreprise de surveiller et de gérer en continu les modèles afin de promouvoir l'explicabilité de l'IA tout en mesurant l'impact de leur utilisation sur son activité. L'IA explicable contribue également à promouvoir la confiance de l'utilisateur final, l'auditabilité des modèles et l'utilisation productive de l'IA. Elle permet également d'atténuer les risques de conformité, de droit, de sécurité et de réputation liés aux résultats produits par l'IA.

L'IA explicable est un élément central de l'IA responsable, une méthodologie permettant de déployer à grande échelle des méthodes d'IA en entreprise de façon équitable, explicable et responsable.³ Pour adopter l'IA de manière responsable, les organisations doivent intégrer des principes éthiques dans les applications et les processus IA en créant des systèmes d'IA fondés sur la confiance et la transparence.

En savoir plus sur l'éthique de l'IA
Comment fonctionne l'IA explicable

Grâce à l'IA explicable (ainsi qu'à l'interprétation du machine learning), les organisations peuvent accéder au processus décisionnel sous-jacent de la technologie IA et procéder à des ajustements si nécessaire. L'IA explicable peut améliorer l'expérience utilisateur d'un produit ou service en renforçant la confiance que les clients finaux auront dans les décisions basées sur l'IA. Quel niveau de confiance doit-on attendre des systèmes d'IA pour se fier à leurs décisions et comment peuvent-ils corriger les erreurs qui surviennent ?⁴

Alors que l'IA devient de plus en plus avancée, les processus de ML doivent être compris et contrôlés pour garantir l'exactitude des résultats des modèles d'IA. Examinons la différence entre l'IA et la XAI, les méthodes et les techniques utilisées pour transformer l'IA en XAI, et la différence entre interprétation et explication des processus d'IA.

Comparaison entre l'IA et la XAI
Quelle est la différence entre l'IA « standard » et l'IA explicable ? La XAI déploie des techniques et des méthodes spécifiques pour garantir que chaque décision prise au cours du processus de ML peut être retracée et expliquée. L'IA, quant à elle, parvient souvent à un résultat à l'aide d'un algorithme de ML, mais les architectes des systèmes d'IA ne comprennent pas entièrement comment celui-ci est parvenu à son résultat. Il est donc difficile d'en vérifier l'exactitude, ce qui entraîne une perte de contrôle, de responsabilité et d'auditabilité.

Techniques d'IA explicables
Les techniques de XAI reposent sur trois grands axes. La précision et la traçabilité des prédictions répondent aux exigences technologiques, tandis que la compréhension des décisions répond aux besoins humains. L'IA explicable – en particulier le machine learning explicable – sera essentielle pour comprendre, faire confiance à et gérer efficacement une génération émergente de partenaires artificiels intelligents.⁵

Précision des prédictions
La précision est un élément clé de la réussite de l'utilisation de l'IA dans les opérations quotidiennes. En effectuant des simulations et en comparant les résultats de la XAI à ceux de l'ensemble des données d'entraînement, il est possible de déterminer la précision de chaque prédiction. La technique la plus utilisée à cet effet est LIME (pour Local Interpretable Model-Agnostic Explanations), qui explique la prédiction des classificateurs par l'algorithme ML.

Traçabilité
La traçabilité est une autre technique clé de la XAI. Cela se fait, par exemple, en limitant la manière dont les décisions peuvent être prises et en établissant un champ d'application plus étroit pour les règles et la fonctionnalité du ML. Parmi les techniques de traçabilité XAI, citons DeepLIFT (pour Deep Learning Important FeaTures), qui compare toute activation de neurone à son neurone de référence et montre un lien traçable entre chaque neurone activé, et même les dépendances entre eux.

Compréhension de la décision
Il s'agit du facteur humain. De nombreuses personnes se méfient de l'IA. Or, pour l'utiliser efficacement, elles doivent apprendre à lui faire confiance en comprenant comment et pour quelles raisons elle prend ses décisions.

Différence entre explicabilité et interprétabilité de l'IA

L'interprétabilité est la mesure dans laquelle un observateur peut comprendre la cause d'une décision. Il s'agit du taux de réussite que les humains peuvent prédire pour les résultats d'une IA, tandis que l'explicabilité va plus loin et examine la manière dont l'IA est parvenue aux résultats.

Quel est le lien entre l'IA explicable et l'IA responsable ?

L'IA explicable et l'IA responsable suivent des objectifs similaires, mais avec une approche différente. Voici les grandes différences entre l'IA explicable et l'IA responsable :

  • L'IA explicable examine les résultats de l'IA après leur calcul.
  • L'IA responsable s'intéresse à l'IA pendant les phases de planification afin de rendre son algorithme responsable avant que les résultats ne soient calculés.
  • L'IA explicable et l'IA responsable peuvent œuvrer de concert pour améliorer l'IA.
Évaluation continue des modèles

L'IA explicable permet de revoir et d'améliorer les performances des modèles tout en aidant les parties prenantes à comprendre les comportements de l'IA.Une étude comportementale des modèles par le suivi des informations sur l'équité, la qualité, la dérive et l'état du déploiement est indispensable pour développer l'IA à grande échelle.

L'évaluation continue des modèles permet de comparer leurs prédictions, de quantifier les risques et d'optimiser leurs performances : un processus qui peut être accéléré en affichant des valeurs positives et négatives sur les comportements des modèles avec les données qui génèrent l'explication.Une plateforme pour les données et l'IA peut générer des attributions de fonctionnalité pour les prédictions des modèles et permettre aux équipes d'étudier visuellement le comportement des modèles à l'aide de graphiques interactifs et de documents exportables.

Les avantages de l'IA explicable
Confiance dans l'utilisation de l'IA

Renforcez votre confiance dans l'IA et déployez rapidement vos modèles en production.Assurez l'interprétabilité et l'explicabilité des modèles d'IA. Simplifiez le processus d'évaluation des modèles tout en augmentant la transparence et la traçabilité des modèles.

Accélération des résultats de l'IA

Suivez et gérez systématiquement les modèles afin d'optimiser les résultats métier. Évaluez et améliorez en permanence les performances des modèles et affinez vos efforts de développement grâce à une évaluation continue.

Risques et coûts de gouvernance réduits

Rendez vos modèles d'IA explicables et transparents. Gérez la réglementation, la conformité, les risque et les autres exigences. Minimisez les frais liés aux inspections manuelles et aux erreurs coûteuses. Atténuez les risques de biais involontaire.

Cinq piliers pour une IA explicable

Considérez ce qui suit pour obtenir les meilleurs résultats avec l'IA explicable.

Équité et débiaisage : gérez et contrôlez l'équité. Examinez votre déploiement pour y déceler d'éventuels préjugés. 

Atténuation de la dérive : analysez votre modèle et faites des recommandations basées sur le résultat le plus logique. Signalez les modèles qui s'écartent des résultats escomptés.

Gestion des risques : quantifiez et atténuez le risque de modèle. Mettez en place des alertes lorsqu'un modèle n'est pas performant. Cherchez à comprendre ce qui s'est passé lorsque les écarts persistent.

Automatisation du cycle de vie : créez, exécutez et gérez vos modèles dans le cadre de services de données et d'IA intégrés. Unifiez les outils et les processus dans une même plateforme pour contrôler les modèles et partager les résultats. Expliquez les dépendances des modèles de machine learning.

Compatibilité multicloud : déployez des projets d'IA dans des clouds hybrides publics, privés et sur site. Renforcez la confiance grâce à une IA explicable.

Cas d'utilisation pour l'IA explicable
  • Santé : accélérer les diagnostics, l'analyse d'images, l'optimisation des ressources et le diagnostic médical. Améliorer la transparence et la traçabilité dans la prise de décision pour les soins aux patients. Rationaliser le processus d'approbation des produits pharmaceutiques grâce à l'IA explicable.
  • Services financiers : améliorer l'expérience utilisateur grâce à un processus d'approbation des prêts et des crédits transparent. Accélérer l'évaluation du risque de crédit, de la gestion de patrimoine et des risques de criminalité financière. Accélérer la résolution des réclamations et des problèmes potentiels. Accroître la confiance dans la tarification, les recommandations produit et les services d'investissement.
  • Justice pénale : optimiser les processus de prédiction et d'évaluation des risques. Accélérer les résolutions en utilisant l'IA explicable pour l'analyse de l'ADN, l'analyse de la population carcérale et les prévisions criminelles. Détecter les biais potentiels dans les données d'entraînement et les algorithmes.
Solutions connexes
IBM Cloud Pak for Data

Automatisez le cycle de vie de l'IA avec la modernisation. Intégrez la gouvernance et la sécurité aux services d'IA et de données.

En savoir plus
IBM Watson Studio

Créez et mettez l’IA à l'échelle en toute confiance et transparence. Élaborez, exécutez et gérez les modèles d'IA avec une surveillance constante pour l'IA explicable.

En savoir plus
IBM Watson Knowledge Catalog

Gouvernez les données et les modèles d'IA avec un catalogue de données de bout en bout soutenu par une gestion active des politiques et des métadonnées.

En savoir plus
Ressources L'urgence de la gouvernance de l'IA

Une approche en trois étapes pour la gouvernance de l'IA. Découvrez comment construire des systèmes de gouvernance capables de surveiller l'IA éthique.

Préparer les modèles pour la surveillance

Découvrez comment configurer et déployer la surveillance des modèles. Utilisez un modèle type de risque de crédit pour sélectionner le déploiement et définir le type de données pour la journalisation du contenu.

Découvrez la valeur de l'IA explicable

Forrester Consulting examine le retour sur investissement prévu pour les entreprises qui déploient l'IA explicable et la surveillance des modèles.

Développer l'IA en toute confiance et transparence

Lufthansa améliore l'expérience utilisateur et dope son efficacité grâce à l'automatisation du cycle de vie de l'IA et à l'atténuation des dérives et des biais.

Passez à l’étape suivante

La plateforme IBM Cloud Pak for Data fournit des services de données et d'IA dans un environnement unifié afin que votre entreprise puisse évaluer l'impact et les relations des données et des modèles pour améliorer la capacité d'explication de l'IA. Elle livre également des informations sur le déploiement, l'équité, la qualité et le risque des modèles. Cette solution contribue à expliquer les transactions basées sur l'IA, les modèles catégoriels, les modèles d'images et les modèles de textes non structurés à l'aide d'outils comme les explications contrastives et LIME.

Essayer IBM Cloud Pak for Data as a Service Apprendre à expliquer les transactions
Notes de bas de page

¹ ”Explainable AI”, The Royal Society, 28 novembre 2019. (lien externe à ibm.com)

² ”Explainable Artificial Intelligence”, Jaime Zornoza, 15 avril 2020. (lien externe à ibm.com)

³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI”, ScienceDirect, juin 2020. (lien externe à ibm.com)

⁴ ”Understanding Explainable AI”, Ron Schmelzer, contributeur de Forbes, 23 juillet 2019. (lien externe à ibm.com)

⁵ ”Explainable Artificial Intelligence (XAI)”, Dr Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA). (lien externe à ibm.com)