Accueil

Think

Thèmes

Transparence de l’IA

Qu’est-ce que la transparence de l’IA ?
Découvrir la solution de transparence de l’IA d’IBM S’inscrire à la newsletter Think
Illustration par un collage de pictogrammes représentant des nuages, un diagramme circulaire, des pictogrammes de graphique

Date de publication : 6 septembre 2024
Contributrices : Alexandra Jonker, Alice Gomstyn, Amanda McGrath

Qu’est-ce que la transparence de l’IA ?

La transparence de l’intelligence artificielle (IA) permet aux individus de mieux comprendre comment sont créés les systèmes d’IA et comment ils prennent leurs décisions.

Les chercheurs décrivent parfois l’IA comme une « boîte noire », car il est encore parfois difficile d’expliquer, de gérer et de réguler les résultats de l’IA en raison de la complexité croissante de la technologie. La transparence de l’IA permet d’ouvrir cette boîte noire et de mieux comprendre les résultats de l’IA et la manière dont les modèles prennent les décisions.

De plus en plus de secteurs à forts enjeux (notamment la finance, la santé, les ressources humaines et les forces de l’ordre) s’appuient sur des modèles d’IA pour prendre des décisions. Mieux comprendre comment ces modèles sont entraînés et comment ils déterminent les résultats renforce la confiance dans les décisions prises par l’IA et dans les organisations qui les utilisent.

Les créateurs d’IA peuvent parvenir à une IA transparente et digne de confiance en communiquant certaines informations. Ils peuvent documenter et partager la logique et le raisonnement des algorithmes d’IA, les données utilisées pour entraîner les modèles, les méthodes d’évaluation et de validation des modèles, etc. Les parties prenantes sont ainsi en mesure d’évaluer la précision prédictive des modèles au regard de l’équité, de la dérive et des biais.

Un haut niveau de transparence est essentiel à l’instauration d’une IA responsable. L’IA responsable est un ensemble de principes qui guident la conception, le développement, le déploiement et l’utilisation de l’IA. Elle tient compte de l’impact sociétal au sens large des systèmes d’IA et les mesures nécessaires pour aligner ces technologies sur les valeurs des parties prenantes, les normes juridiques et les considérations éthiques.

Gouvernance de l’IA pour l’entreprise
Pourquoi la transparence de l’IA est-elle importante ?

Les applications d’IA telles que les chatbots d’IA générative, les agents conversationnels et les moteurs de recommandation sont désormais utilisés chaque jour par des dizaines de millions de personnes dans le monde. La transparence sur le fonctionnement de ces outils ne pose généralement pas de problème dans ces domaines à faibles enjeux : si le modèle s’avère inexact ou biaisé, les pertes se limitent à un peu de temps ou d’argent.

Cependant, de plus en plus de secteurs adoptent des applications d’IA pour éclairer les décision à forts enjeux. Par exemple, l’IA aide désormais les entreprises et les utilisateurs à faire des choix d’investissement, à poser des diagnostics médicaux, à prendre des décisions d’embauche, à prononcer des condamnations pénales, etc. Dans pareils cas, les conséquences découlant de résultats biaisés ou inexacts peuvent s’avérer beaucoup plus graves. Les gens peuvent perdre l’épargne de toute une vie, des opportunités de carrière ou des années de leur vie.

Pour que les parties prenantes soient convaincues que l’IA prend des décisions efficaces et équitables en leur nom, elles doivent avoir connaissance du mode de fonctionnement des modèles, de la logique des algorithmes et de la manière dont les modèles sont évalués du point de vue de l’exactitude et de l’équité. Elles ont également besoin d’en savoir plus sur les données utilisées pour entraîner et ajuster les modèles, y compris les sources de données et la manière dont les données sont traitées, pondérées et étiquetées.

En plus d’instaurer un sentiment de confiance, la transparence de l’IA favorise le partage des connaissances et la collaboration dans l’ensemble de l’écosystème de l’IA, et contribue à faire progresser son développement. Les organisations peuvent alors se concentrer davantage sur l’utilisation des technologies d’IA pour atteindre leurs objectifs métier, plutôt que de se préoccuper de leur fiabilité.

Réglementations et cadres de transparence de l’IA

Le réseau d’exigences réglementaires entourant l’utilisation de l’IA ne cesse d’évoluer. La transparence des processus de modélisation est essentielle pour se conformer à ces réglementations et répondre aux demandes des validateurs de modèles, des auditeurs et des régulateurs. La loi européenne sur l’intelligence artificielle est considérée comme le premier cadre réglementaire complet au monde en matière d’IA.

La loi européenne sur l’intelligence artificielle


La loi européenne sur l’intelligence artificielle adopte une approche réglementaire basée sur les risques, appliquant des règles différentes aux systèmes d’IA selon le niveau de risque qu’ils représentent. Elle interdit purement et simplement certaines utilisations de l’IA et impose des exigences strictes en matière de gouvernance, de gestion des risques et de transparence pour d’autres. Il existe également des obligations de transparence supplémentaires pour certains types d’IA. Voici quelques exemples :

  • Les systèmes d’IA destinés à interagir directement avec les individus doivent être conçus de manière à informer les utilisateurs qu’ils interagissent avec un système d’IA, à moins que cela ne soit évident en raison du contexte. Par exemple, un chatbot doit informer les utilisateurs qu’il s’agit d’un chatbot.

  • Les systèmes d’IA qui génèrent du texte, des images ou d’autres contenus spécifiques doivent utiliser des formats lisibles par machine pour marquer les productions comme générées ou manipulées par l’IA. Cela inclut, par exemple, la génération de deepfakes, c’est-à-dire des images ou des vidéos modifiées pour montrer qu’une personne fait ou dit quelque chose qu’elle n’a pas fait ou dit.

La mise en œuvre du règlement général sur la protection des données (RGPD) de l’UE a amené d’autres pays à adopter des réglementations en matière de confidentialité des données personnelles. De même, les experts prédisent que la loi européenne sur l’IA stimulera le développement de normes de gouvernance et d’éthique à l’égard de l’IA dans le monde entier.

Cadres directeurs pour la transparence de l’IA



La plupart des pays et des régions n’ont pas encore adopté de législation ou de réglementation complète concernant l’utilisation de l’IA. Cependant, plusieurs cadres étendus ont été mis en place. Bien qu’ils ne soient pas toujours applicables, ils servent à orienter la réglementation future et à favoriser le développement et l’utilisation responsables de l’IA. En voici quelques exemples :

  • Le décret de la Maison Blanche sur le développement et l’utilisation sûrs et fiables de l’intelligence artificielle : Publié le 30 octobre 2023, le décret aborde la question de la transparence dans plusieurs sections. La section 8 traite spécifiquement de la protection des consommateurs, des patients, des passagers et des étudiants. Les organismes de réglementation indépendants sont encouragés à envisager d’utiliser leur autorité pour protéger les consommateurs américains contre les risques liés à l’IA, notamment en « soulignant ou en clarifiant les exigences et les attentes liées à la transparence des modèles d’IA et à la capacité des entités réglementées à expliquer leur utilisation des modèles d’IA1 ».

  • Le plan directeur américain pour une charte des droits de l’IA : Le plan directeur est un ensemble de cinq principes et de pratiques associées visant à guider la conception, l’utilisation et le déploiement de systèmes d’IA. Le quatrième principe, intitulé « Avis et explications », touche directement à la transparence : « Les personnes chargées de la conception, du développement et du déploiement des systèmes automatisés devraient fournir une documentation accessible à tous, rédigée en langage clair, comprenant des descriptions claires du fonctionnement général du système et du rôle joué par l’automatisation, un avis indiquant que de tels systèmes sont utilisés, la personne ou l’organisation responsable du système, et des explications claires, opportunes et accessibles sur les résultats obtenus2. »

  • Le cadre d’action global du processus de Hiroshima sur l’intelligence artificielle : Lancé en 2023 à la suite du sommet du G7 à Hiroshima, le processus d’Hiroshima sur l’IA est un ensemble de principes directeurs pour le développement mondial de systèmes d’IA avancés qui promeuvent une IA sûre, sécurisée et digne de confiance. Le cadre appelle les organisations à respecter 11 principes, dont plusieurs encouragent la « publication de rapports de transparence » et le « partage responsable d’informations3 ».
Explicabilité, interprétabilité et transparence de l’IA

La transparence de l’IA est étroitement liée aux concepts d’explicabilité et d’interprétabilité de l’IA. Ces concepts permettent de résoudre le traditionnel problème de la « boîte noire », à savoir la question pratique et éthique selon laquelle les systèmes d’IA sont si sophistiqués qu’ils sont impossibles à interpréter par les humains. Cependant, ils présentent des définitions et des cas d’utilisation distincts :

  • Explicabilité de l’IA : Comment les modèles sont-ils arrivés à ces résultats ?

  • Interprétabilité de l’IA : Comment les modèles prennent-ils les décisions ?

  • Transparence de l’IA : Comment les modèles ont-ils été créés, quelles données les ont entraînés et comment prennent-ils des décisions ?

Explicabilité de l’IA : Comment les modèles sont-ils arrivés à ces résultats ?


L’explicabilité de l’IA, ou l’IA explicable (XAI), est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre les résultats et les productions créés par les modèles de machine learning et de s’y fier. L’explicabilité des modèles examine comment un système d’IA parvient à un résultat spécifique et permet de caractériser la transparence des modèles.

En savoir plus sur l’IA explicable

Interprétabilité de l’IA : Comment les modèles prennent-ils les décisions ?


L’interprétabilité de l’IA consiste à rendre l’ensemble du processus d’IA compréhensible par les humains. Ce concept fournit des informations significatives sur la logique sous-jacente, l’importance et les conséquences anticipées du système d’IA. Il s’agit du taux de réussite que les humains peuvent prédire pour les résultats d’une IA, tandis que l’explicabilité va plus loin et examine la manière dont le modèle d’IA est parvenu aux résultats.

En savoir plus sur l’interprétabilité de l’IA

Transparence de l’IA : Comment les modèles ont-ils été créés, quelles données les ont entraînés et comment prennent-ils des décisions ?


La transparence de l’IA ne se limite pas à expliquer les processus de prise de décision de l’IA. Elle englobe les facteurs liés au développement des systèmes d’IA et à leur déploiement, tels que les données d’entraînement de l’IA et les personnes qui y ont accès.

Comment assurer la transparence de l’IA ?

Bien que la transparence de l’IA diffère selon le cas d’utilisation, l’organisation et le secteur d’activité, il existe certaines stratégies que les entreprises peuvent garder à l’esprit lorsqu’elles développent des systèmes d’IA. De manière générale, ces stratégies comprennent des principes clairs en matière de confiance et de transparence, la mise en pratique de ces principes et leur intégration dans l’ensemble du cycle de vie de l’IA.

Une stratégie plus spécifique pour la transparence de l’IA consiste à communiquer des informations complètes à chaque étape du cycle de vie de l’IA. Pour cela, les organisations doivent déterminer quelles informations partager et comment les partager.

Informations nécessaires dans la documentation sur la transparence de l’IA



Les informations à communiquer sont établies en fonction du cas d’utilisation des modèles, du secteur d’activité, du public et d’autres facteurs. Par exemple, les utilisations à forts enjeux (telles que les évaluations de prêts immobiliers) nécessiteront probablement plus d’informations que les applications à faibles enjeux (telles que la classification audio pour les assistants virtuels). 

Les informations communiquées peuvent comprendre tout ou partie des éléments suivants concernant les modèles :

  • Nom de modèle
  • Objectif
  • Niveau de risque
  • Politique de modèle
  • Génération de modèle
  • Domaine prévu
  • Données d’entraînement
  • Précision de l’entraînement et des tests
  • Biais
  • Indicateurs de robustesse face à l’adversaire
  • Indicateurs d’équité
  • Indicateurs d’explicabilité
  • Informations de contact

Chaque acteur du cycle de vie de l’IA peut fournir des informations, ce qui permet de répartir la responsabilité sur l’ensemble de l’écosystème plutôt que sur un seul individu. Il existe des plateformes logicielles et des outils disponibles qui permettent d’automatiser la collecte d’informations et d’autres actions de gouvernance de l’IA.

Comment partager des informations pour garantir la transparence de l’IA ?



Les organisations peuvent présenter des informations dans différents formats, par exemple papier ou vidéo. Le format dépend à la fois du public et du cas d’utilisation. Les informations sont-elles destinées à des consommateurs et doivent-elles donc être facilement compréhensibles ? Ou bien sont-elles destinées à des data scientists ou à des régulateurs, et doivent-elles donc être très techniques ?

Les formats possibles sont les suivants : 

  • Document évolutif qui s’inspire de la déclaration de conformité du fournisseur (SDoC), un document utilisé dans de nombreux secteurs pour montrer qu’un produit est conforme à certaines normes ou réglementations techniques.

  • Pages de politique officielle sur le site Web de l’entreprise qui détaillent la manière dont l’organisation met en œuvre des initiatives transparentes en matière d’IA.

  • Ressources éducatives telles que des documents et des vidéos qui expliquent aux utilisateurs comment l’IA est utilisée dans les produits et services, et comment elle affecte l’expérience client.

  • Discours public qui présente le point de vue éthique de l’organisation en matière d’IA par le biais d’activités de relations publiques officielles, d’événements, de réseaux sociaux et d’autres moyens de communication.  

  • Articles de recherche, jeux de données et autres communications basées sur les données qui renseignent sur l’utilisation, le développement et les avantages de l’IA dans le secteur d’activité ou les cas d’utilisation de l’organisation.
Les défis de la transparence de l’IA

Les pratiques d’IA transparentes présentent de nombreux avantages, mais elles soulèvent également des problèmes de sécurité et de confidentialité. Par exemple, plus l’on communique d’informations sur le fonctionnement interne des projets d’IA, plus il est facile pour les pirates informatiques de trouver et d’exploiter les vulnérabilités. La société OpenAI explique dans son rapport technique de GPT-4 comment elle a résolu ce problème :

« Compte tenu à la fois de l’environnement concurrentiel et des implications en matière de sécurité des modèles à grande échelle tels que GPT-4, ce rapport ne contient pas d’autres informations sur l’architecture (y compris la taille du modèle), le matériel, le calcul d’entraînement, la compilation du jeu de données, la méthode d’entraînement, ou autre4. »

La citation révèle également un autre défi lié à la transparence de l’IA, à savoir le compromis entre transparence et protection de la propriété intellectuelle. Parmi les autres obstacles, on pourrait citer l’explication claire de programmes et d’algorithmes de machine learning complexes (tels que les réseaux neuronaux) à un public non averti et l’absence de normes de transparence au niveau mondial en matière d’IA.

Solutions connexes
IBM watsonx.governance

Dirigez, gérez et surveillez les activités d’IA de votre organisation.

Découvrir IBM watsonx.governance

Services de conseil en intelligence artificielle

Notre équipe internationale, composée de plus de 20 000 experts de l’IA, peut vous aider à concevoir et à adapter de façon sûre et rapide des solutions d’IA et d’automatisation de pointe à l’échelle de votre entreprise.

Découvrir les services de conseil en IA
Ressources Une IA digne de confiance

IBM Research développe des outils pour rendre l’IA plus explicable, plus équitable, plus robuste, plus privée et plus transparente.

Programmes de conformité IBM Cloud

Gérez la conformité réglementaire et les exigences de gouvernance interne avec les services IBM Cloud.

Introduction à la fiche d’information sur l’IA

Une fiche d’information est un recueil d’informations pertinentes (faits) sur la création et le déploiement d’un modèle ou d’un service d’IA.

Qu’est-ce que la loi sur l’IA de l’UE ?

La loi européenne sur l’IA est un texte qui régit le développement et l’utilisation de l’intelligence artificielle dans l’Union européenne.

Biais algorithmique

On parle de « biais algorithmique » lorsque des erreurs systématiques dans les algorithmes de machine learning produisent des résultats injustes ou discriminatoires.

Qu’est-ce que l’IA responsable ?

L’IA responsable est un ensemble de principes qui guident la conception, le développement, le déploiement et l’utilisation de l’IA.

Passez à l’étape suivante

Accélérez la mise en place de workflows d’IA responsables, transparents et explicables tout au long du cycle de vie pour les modèles d’IA générative et de machine learning. Dirigez, gérez et surveillez les activités d’IA de votre organisation pour mieux vous adapter aux réglementations de plus en plus nombreuses en matière d’IA, et détecter et atténuer les risques plus efficacement.

Découvrez watsonx.governance Réserver une démo en direct
Notes de bas de page

Tous les liens sont externes au site ibm.com

1. « Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence », The White House, 30 octobre 2023.

2. « Notice and Explanation », The White House.

3. « Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System », Ministry of Foreign Affairs of Japan, 2023.

4. « GPT-4 Technical Report », arXiv, 15 mars 2023.