Découvrez comment l'IA explicable profite à l'IA de production

Qu'est-ce que l'IA explicable ?

L'intelligence artificielle explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre les résultats et les conclusions créés par les algorithmes d'apprentissage automatique et de leur faire confiance. L'IA explicable est utilisée pour décrire un modèle d'IA, son impact attendu et ses biais potentiels. Elle aide à caractériser la précision, l'équité, la transparence et les résultats des modèles dans la prise de décision assistée par l'IA. L'IA explicable est cruciale pour une organisation qui souhaite instaurer la confiance lors de la mise en production de modèles d'IA. L'explicabilité de l'IA aide également une organisation à adopter une approche responsable du développement de l'IA.

À mesure que l'IA devient plus avancée, les humains sont mis au défi de comprendre et de retracer comment l'algorithme est arrivé à un résultat. L'ensemble du processus de calcul se transforme en ce que l'on appelle communément une "boîte noire" impossible à interpréter. Ces modèles en boîte noire sont créés directement à partir des données. Et, même les ingénieurs ou les scientifiques des données qui créent l'algorithme ne peuvent pas comprendre ou expliquer ce qui se passe exactement à l'intérieur ou comment l'algorithme d'IA est arrivé à un résultat spécifique.

Il y a de nombreux avantages à comprendre comment un système basé sur l'IA a conduit à un résultat spécifique.  L'explicabilité peut aider les développeurs à s'assurer que le système fonctionne comme prévu, elle peut être nécessaire pour répondre aux normes réglementaires, ou elle peut être importante pour permettre aux personnes affectées par une décision de contester ou de changer ce résultat.¹

Professionnel travaillant sur un ordinateur portable

Pourquoi l'IA explicable est-elle importante ?

Il est essentiel qu'une organisation comprenne parfaitement les processus décisionnels de l'IA, avec une surveillance des modèles et une responsabilisation de l'IA, afin de ne pas leur accorder une confiance aveugle. L'IA explicable peut aider les humains à comprendre et à expliquer les algorithmes d'apprentissage automatique, l'apprentissage en profondeur et les réseaux neuronaux.

Les modèles d'apprentissage automatique sont souvent considérés comme des boîtes noires impossibles à interpréter.² Les réseaux neuronaux utilisés dans l'apprentissage en profondeur sont parmi les plus difficiles à comprendre pour un humain. Les biais, souvent fondés sur la race, le sexe, l'âge ou le lieu de résidence, constituent depuis longtemps un risque pour l'entraînement des modèles d'IA. En outre, les performances des modèles d'IA peuvent dériver ou se dégrader parce que les données de production diffèrent des données d'entraînement. Il est donc crucial pour une entreprise de surveiller et de gérer en permanence les modèles afin de promouvoir l'explicabilité de l'IA tout en mesurant l'impact de l'utilisation de ces algorithmes sur l'entreprise. L'IA explicable contribue également à promouvoir la confiance des utilisateurs finaux, l'auditabilité des modèles et l'utilisation productive de l'IA. Elle atténue également les risques de conformité, de légalité, de sécurité et de réputation liés à l'IA de production.

L'IA explicable est l'une des conditions essentielles à la mise en œuvre d'une IA responsable. Elle permet de mettre en œuvre à grande échelle des méthodes d'IA dans des organisations réelles en garantissant l'équité, l'explicabilité des modèles et la responsabilité.³ Pour aider à adopter l'IA de manière responsable, les entreprises doivent intégrer des principes éthiques dans les applications et les processus d'IA en créant des systèmes d'IA basés sur la confiance et la transparence.

Personne regardant des participants à une réunion vidéo sur un ordinateur portable

Évaluation continue des modèles

Avec l'IA explicable, une entreprise peut dépanner et améliorer les performances des modèles tout en aidant les parties prenantes à comprendre les comportements des modèles d'IA. L'étude des comportements des modèles par le suivi de leur état de déploiement, de leur équité, de leur qualité et de leurs dérives est essentielle à la mise à l'échelle de l'IA. L'évaluation continue des modèles permet à une entreprise de comparer les prévisions des modèles, de quantifier les risques des modèles et d'en optimiser les performances. L'affichage des valeurs positives et négatives dans les comportements du modèle, avec les données utilisées pour générer l'explication, accélère les évaluations du modèle. Une plateforme de données et d'IA peut générer des attributions de fonctions pour les prévisions du modèle et permettre aux équipes d'étudier visuellement le comportement du modèle avec des graphiques interactifs et des documents exportables.

Professionnel travaillant sur un ordinateur portable

Valeur de l'IA explicable

Extrait d'une étude de Forrester sur l'IA explicable et la surveillance des modèles sur IBM Cloud Pak for Data.

Avantages de l'IA explicable

Exploiter l'IA en toute confiance

Renforcez la confiance dans l'IA de production. Introduisez rapidement vos modèles d'IA dans la production. Assurez l'interprétabilité et l'explicabilité des modèles d'IA. Simplifiez le processus d'évaluation des modèles tout en augmentant leur transparence et leur traçabilité.

Accélérer les résultats de l'IA

Contrôlez et gérez systématiquement les modèles afin d'optimiser les résultats de votre entreprise. Évaluez et améliorez continuellement les performances des modèles. Affinez les efforts de développement des modèles sur la base d'une évaluation continue.

Réduire le risque et le coût de la gouvernance des modèles

Faites en sorte que vos modèles d'IA soient explicables et transparents. Gérez les exigences réglementaires, de conformité, de risque et autres. Réduisez les frais généraux d'inspection manuelle et les erreurs coûteuses. Réduisez les risques de biais involontaires.

L'approche IBM de l'IA explicable

Depuis plus de 100 ans, IBM s'efforce continuellement d'innover pour le bien de tous et pas seulement de quelques-uns. Cette philosophie s'applique également à l'IA : notre but est de créer et d'offrir une technologie fiable qui puisse améliorer, et non remplacer, la prise de décision humaine.

Si l'IA promet de fournir des informations et des modèles précieux dans une multitude d'applications, l'adoption à grande échelle des systèmes d'IA dépendra fortement de la capacité des individus à faire confiance aux résultats de l'IA. La confiance de l'homme dans la technologie repose sur notre compréhension de son fonctionnement et sur notre évaluation de sa sécurité et de sa fiabilité. Une IA explicable est donc cruciale.  L'approche d'IBM en matière d'IA explicable consiste à rendre l'IA fiable et équitable, à faire en sorte qu'elle puisse être prise en compte et à garantir qu'elle ne causera aucun dommage.

Au cœur de cette innovation, IBM Research développe diverses approches sur la manière de parvenir à l'équité, à la robustesse, à l'explicabilité, à la responsabilité et à l'alignement des valeurs, et de les intégrer tout au long du cycle de vie d'une application d'IA. Les structures et les outils d'IA explicable d'IBM Research sont intégrés à la plateforme IBM Cloud Pak for Data afin que les entreprises puissent tirer parti de nos dernières technologies d'IA de manière gouvernée, sécurisée et évolutive.

Personne regardant son téléphone portable en se tenant devant une fenêtre de bureau

Cinq éléments à prendre en compte concernant l'IA explicable

Cinq éléments à prendre en compte concernant l'IA explicable

Pour obtenir les résultats souhaités avec l'IA explicable, considérez les points suivants :

Équité et réduction des biais : Gérez et surveillez l'équité. Examinez votre déploiement à la recherche de biais potentiels. 

Atténuation de la dérive des modèles : Analysez votre modèle et faites des recommandations en fonction du résultat le plus logique. Donnez l'alerte lorsque les modèles s'écartent des résultats escomptés.

Gestion des risques liés aux modèles : Quantifiez et atténuez les risques liés aux modèles. Obtenez une alerte lorsqu'un modèle n'est pas performant. Comprenez ce qui s'est passé lorsque les écarts persistent.

Automatisation du cycle de vie : Construisez, exécutez et gérez des modèles dans le cadre de services intégrés de données et d'IA. Unifiez les outils et les processus sur une plateforme pour surveiller les modèles et partager les résultats. Expliquez les dépendances des modèles d'apprentissage automatique.

Prêt pour le multi-cloud : Déployez des projets d'intelligence artificielle dans des clouds hybrides, incluant des clouds publics, des clouds privés et sur site. Favorisez la confiance grâce à une IA explicable.

Gros plan sur un bâtiment en verre moderne

Améliorez l'explicabilité de l'IA grâce à IBM Cloud Pak for Data

La plateforme IBM Cloud Pak® for Data fournit des services de données et d'IA dans un environnement unifié afin que les entreprises puissent évaluer l'impact et les relations des données et des modèles pour améliorer l'explicabilité de l'IA. Elle aide également les entreprises à obtenir des informations sur les déploiements, l'équité, la qualité et les risques. La solution permet d'expliquer les transactions d'IA, les modèles catégoriels, les modèles d'images et les modèles de textes non structurés à l'aide d'outils tels que les explications contrastives et les explications LIME (Local Interpretable Model-Agnostic Explanations). Rendre l'IA explicable et transparente en automatisant le cycle de vie de l'IA sur une architecture d'information moderne est vital pour le succès de l'IA de production.

Approfondir l'IA explicable

Comment fonctionne l'IA explicable ?

Grâce à l'IA explicable - ainsi qu'à l'apprentissage automatique interprétable - les entreprises ont accès au processus décisionnel sous-jacent de la technologie d'IA et sont en mesure de procéder à des ajustements. L'IA explicable peut améliorer l'expérience utilisateur d'un produit ou d'un service en aidant l'utilisateur final à faire confiance aux décisions de l'IA. Quand les systèmes d'IA offrent-ils une confiance suffisamment grande dans la décision pour qu'on puisse s'y fier, et comment le système d'IA peut-il corriger les erreurs qui surviennent ?⁴

Alors que l'IA gagne en maturité, les processus d'apprentissage automatique doivent encore être compris et contrôlés pour garantir l'exactitude des résultats des modèles d'IA. Examinons la différence entre l'IA et la XAI, les méthodes et techniques utilisées pour transformer l'IA en XAI, et la différence entre l'interprétation et l'explication des processus d'IA.

Comparaison entre l'IA et la XAI

Quelle est exactement la différence entre l'IA "ordinaire" et l'IA explicable ? L'IA explicable met en œuvre des techniques et des méthodes spécifiques pour garantir que chaque décision prise au cours du processus d'apprentissage automatique puisse être retracée et expliquée. L'IA, quant à elle, parvient souvent à un résultat à l'aide d'un algorithme d'apprentissage automatique, mais les architectes des systèmes d'IA ne comprennent pas complètement comment l'algorithme est parvenu à ce résultat. Il est donc difficile d'en vérifier l'exactitude et cela entraîne une perte de contrôle, de responsabilité et d'auditabilité.

Techniques d'IA explicable

La mise en place des techniques XAI comprend trois méthodes principales. La précision et la traçabilité des prévisions répondent aux exigences technologiques, tandis que la compréhension des décisions répond aux besoins humains. L'IA explicable - en particulier l'apprentissage automatique explicable - sera essentielle si les acteurs de demain veulent comprendre, faire confiance et gérer efficacement une génération émergente de partenaires machines dotés d'intelligence artificielle.⁵

Précision des prévisions
La précision est un élément clé du succès de l'utilisation de l'IA dans les opérations quotidiennes. En effectuant des simulations et en comparant les résultats de l'IA explicable aux résultats de l'ensemble des données d'apprentissage, on peut déterminer la précision des prévisions. La technique la plus populaire pour cela est celle des explications LIME (Local Interpretable Model-Agnostic Explanations), qui expliquent la prévision des classificateurs par l'algorithme d'apprentissage automatique.

Traçabilité
La traçabilité est une autre technique clé de l'IA explicable. Pour y parvenir, il faut, par exemple, limiter la manière dont les décisions peuvent être prises et restreindre le champ d'application des règles et des fonctionnalités d'apprentissage automatique. Parmi les exemples de techniques XAI de traçabilité, citons DeepLIFT (Deep Learning Important FeaTures), qui compare l'activation de chaque neurone à son neurone de référence et montre un lien traçable entre chaque neurone activé, et même les dépendances entre eux.

Compréhension des décisions
Il s'agit du facteur humain. Nombreux sont ceux qui se méfient de l'IA. Pourtant, pour travailler efficacement avec elle, ils doivent apprendre à lui faire confiance. Pour ce faire, il faut former l'équipe qui travaille avec l'IA afin qu'elle puisse comprendre comment et pourquoi l'IA prend des décisions.

Comparaison entre l'explicabilité et l'interprétabilité de l'IA

L'interprétabilité est la mesure dans laquelle un observateur peut comprendre la cause d'une décision. Il s'agit du degré de réussite que les humains peuvent prédire pour un résultat produit par l'IA, tandis que l'explicabilité va un peu plus loin et examine comment l'IA est parvenue au résultat.

En quoi l'IA explicable est-elle liée à l'IA responsable ?

L'IA explicable et l'IA responsable ont des objectifs similaires, mais des approches différentes. Voici les principales différences entre l'IA explicable et l'IA responsable :

  • L'IA explicable examine les résultats de l'IA après le calcul des résultats.
  • L'IA responsable s'intéresse à l'IA pendant les phases de planification afin de rendre l'algorithme d'IA responsable avant que les résultats ne soient calculés.
  • L'IA explicable et l'IA responsable peuvent travailler ensemble pour créer une meilleure IA.

Pour en savoir plus sur l'IA explicable, inscrivez-vous pour obtenir un IBMid et commencez dès aujourd'hui à évaluer IBM Cloud Pak for Data.

Comment mettre en œuvre une IA explicable

Utilisez ces ressources pour en savoir plus sur la façon de mettre en œuvre une IA explicable.

Séminaire en ligne : Comment gérer et surveiller les modèlesDécouvrez ce que vous pouvez faire lorsque vos modèles ne fonctionnent pas.
Voir le webinaire (lien externe à IBM) →

Parcours d'apprentissage : Gérer l'IA avec confianceApprenez à suivre et à mesurer les résultats de l'IA tout au long de son cycle de vie, tout en adaptant et en gouvernant l'IA en fonction de l'évolution des besoins de votre entreprise.
Voir le tutoriel →

Atelier pratique : Surveiller les modèles d'apprentissage automatiqueExplorez les processus étape par étape pour évaluer les modèles en termes d'équité, de précision et d'explicabilité. 
Voir l'atelier →

Cas d'utilisation de l'IA explicable

Santé

Gros plan de 3 chirurgiens en train d'opérer

Accélérez le diagnostic, l'analyse d'images, l'optimisation des ressources et le diagnostic médical. Améliorez la transparence et la traçabilité dans la prise de décision pour les soins aux patients. Simplifiez le processus d'approbation des produits pharmaceutiques grâce à l'IA explicable.

Services financiers

Personne tenant une carte de crédit tout en travaillant sur un ordinateur portable

Améliorez l'expérience des clients grâce à un processus transparent d'approbation des prêts et des crédits. Accélérez l'évaluation des risques de crédit, de gestion de patrimoine et de criminalité financière. Accélérez la résolution des plaintes et des problèmes potentiels. Augmentez la confiance dans les prix, les recommandations de produits et les services d'investissement.

Justice pénale

Agent de police devant une scène de crime délimitée par un ruban de sécurité

Optimisez les processus de prévision et d'évaluation des risques. Accélérez les résolutions en utilisant l'IA explicable sur l'analyse de l'ADN, l'analyse de la population carcérale et la prévision de la criminalité. Détectez les biais potentiels dans les données d'entraînement et les algorithmes.

Notes de bas de page

¹ ”Explainable AI,” The Royal Society, 28 novembre 2019. (lien externe à IBM)
² ”Explainable Artificial Intelligence,” Jaime Zornoza, 15 avril 2020. (lien externe à IBM)
³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI,” ScienceDirect, juin 2020. (lien externe à IBM)
⁴ ”Understanding Explainable AI,” Ron Schmelzer, contributeur Forbes, 23 juillet 2019. (lien externe à IBM)
⁵ ”Explainable Artificial Intelligence (XAI),” Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA). (lien externe à IBM)