Développeurs

AI Explainability 360: Une boîte à outils logicielle open source pour comprendre comment les modèles d’apprentissage automatique produisent leurs prédictions

Share this post:

Par ANIMESH SINGH https://developer.ibm.com/open/projects/ai-explainability/

Traduit de l’anglais par Georges-Henri Moll

AI Explainability 360 (notée plus loin AIX 360) est une boîte à outils complète qui propose une API cohérente rassemblant:

  • des algorithmes à la pointe de la recherche pour aider à comprendre comment les algorithme d’apprentissage automatique produisent leurs prédictions,
  • des manuels, didacticiels et démonstrations, le tout au travers d’une interface unique

La version initiale d’AI Explainability 360 contient huit algorithmes différents, créés par IBM Research. Nous invitons la communauté scientifique à apporter ses propres algorithmes.

Les algorithmes embarquent des méthodes pour comprendre à la fois les données et les modèles. Certains algorithmes construisent directement des modèles que les utilisateurs peuvent interpréter et comprendre. D’autres algorithmes entraînent d’abord un modèle de type « boîte noire », puis l’expliquent ensuite à l’aide d’un autre modèle. Certains algorithmes expliquent les décisions individuelles; tandis que d’autres algorithmes expliquent le modèle dans son ensemble.

Pourquoi utiliser AI Explainability 360 ?

Qu’est-ce qu’une boîte noire en apprentissage automatique ?
Les modèles d’apprentissage automatique de type « boîte noire » sont des modèles complexes que les utilisateurs ne peuvent pas facilement comprendre, comme par exemple un réseau neuronal profond.

Voir notre glossaire des termes de l’IA

Les modèles d’apprentissage automatique de type « boîte noire » ne peuvent pas être compris directement par les utilisateurs.  Un exemple typique est celui des réseaux de neurones profonds ou celui et de grands ensembles de modèles collaborant à une prédiction : ils peuvent atteindre une très grande précision sur divers types de problèmes, de ce fait ils sont largement adoptés. À mesure qu’ils gagnent en popularité, les fonctions d’explicabilité et d’interprétabilité, qui doivent permettent à l’utilisateur humain de comprendre le processus décisionnel de la machine, deviennent cruciales. Plus concrètement, selon une enquête de l’IBM Institute of Business Value, 68% des dirigeants mondiaux interrogés estiment que les utilisateurs exigeront plus d’explication au cours des trois prochaines années.

La question de l’explicabilité pour l’apprentissage automatique n’est pas monolithique : Il existe de nombreuses façons d’expliquer comment un algorithme construit des prédictions, notamment :

  • Montrer les données réelles par rapport aux prédictions
  • Exposer des modèles directement interprétables (arbres de décision par exemple), ou au contraire construire une explication a posteriori
  • Donner des explications locales ou au contraire donner des explications globales
  • Proposer des explications statiques ou au contraire offrir une interface interactive pour explorer et comprendre les prédictions

Le choix approprié dépend de la fonction et de la culture de l’utilisateur, ainsi que du cahier des charge ayant conduit à la construction du pipeline d’apprentissage. AI Explainability 360 se distingue des autres offres open source d’explicabilité par la diversité de ses méthodes, par son objectif à servir une grande variété d’utilisateurs, et par son extensibilité, grâce à l’homogénéité de sa structure.

Exemple de deux algorithmes

Examinons deux algorithmes comme exemple.

  • Les règles de classification booléennes par génération de colonnes constituent une méthode précise et extensible d’interprétation de prédictions d’apprentissage automatique. Elle a remporté le premier challenge FICO d’apprentissage automatique explicable.
  • La méthode des explications contrastées est une méthode locale a posteriori qui aborde la question la plus importante de l’IA explicable mais en même temps la question la plus négligée jusque là par les chercheurs et les praticiens, à savoir: pourquoi un certain événement s’est produit au lieu d’un autre événement.

La boîte à outil interactive d’introduction à AIX 360 permet d’aborder en douceur les concepts et les fonctions d’équité. Les didacticiels et autres manuels offrent une introduction plus approfondie à destination des data scientists. La documentation complète de l’API est également disponible. Comme AIX 360 regroupe un ensemble riche et complet de fonctionnalités, il peut être déroutant de choisir quels algorithmes sont les plus appropriés pour un cas donné. Pour cela, nous avons créé des documents qui aident à s’orienter.

 Pourquoi contribuer ?

En tant que projet open source, la boîte à outils AI Explainability 360 bénéficie d’un écosystème dynamique de contributeurs, technologues industriels et chercheurs universitaires.

AIX 360 constitue la première boîte à outils d’explicabilité offrant une API unifiée et répondant à des spécifications de qualité industrielle. AIX 360 est munie de didacticiels conçus pour aborder l’ensemble des méthodes d’explication. Enfin, AIX 360 réunit les algorithmes et métriques d’explicabilité à la pointe de la recherche. Cette approche ouverte est destinée d’une part à accélérer la recherche scientifique du domaine, et d’autre part à promouvoir l’adoption de ces techniques pour les déploiements réels.

Nous vous encourageons à contribuer à AIX 360en y ajoutant vos métriques et vos algorithmes. Vous pouvez rejoindre la communauté et contribuer dès maintenant. Lisez nos consignes de participation pour commencer.

Pour de plus amples informations, démos, resources, code, visitez la page suivante : https://aix360.mybluemix.net/

Digital Developer Advocate - Data Scientist - Master Inventor - IDT Lead

More Développeurs stories
26 février 2024

L’importance d’une culture DevOps au sein d’une entreprise

DevOps ne concerne pas uniquement les phases d’intégration et de déploiement d’application et l’automatisation de celles-ci mais tout le cycle de vie d’une application.   DevOps ? Kezako ? Pourquoi ? Historiquement, les équipes de développement et opérations étaient organisées en silo, chacune travaillant uniquement sur leur scope avec une communication limitée. Avec l’arrivée de […]

Continue reading