Accueil
Think
Thèmes
Transparence de l’IA
Date de publication : 6 septembre 2024
Contributrices : Alexandra Jonker, Alice Gomstyn, Amanda McGrath
La transparence de l’intelligence artificielle (IA) permet aux individus de mieux comprendre comment sont créés les systèmes d’IA et comment ils prennent leurs décisions.
Les chercheurs décrivent parfois l’IA comme une « boîte noire », car il est encore parfois difficile d’expliquer, de gérer et de réguler les résultats de l’IA en raison de la complexité croissante de la technologie. La transparence de l’IA permet d’ouvrir cette boîte noire et de mieux comprendre les résultats de l’IA et la manière dont les modèles prennent les décisions.
De plus en plus de secteurs à forts enjeux (notamment la finance, la santé, les ressources humaines et les forces de l’ordre) s’appuient sur des modèles d’IA pour prendre des décisions. Mieux comprendre comment ces modèles sont entraînés et comment ils déterminent les résultats renforce la confiance dans les décisions prises par l’IA et dans les organisations qui les utilisent.
Les créateurs d’IA peuvent parvenir à une IA transparente et digne de confiance en communiquant certaines informations. Ils peuvent documenter et partager la logique et le raisonnement des algorithmes d’IA, les données utilisées pour entraîner les modèles, les méthodes d’évaluation et de validation des modèles, etc. Les parties prenantes sont ainsi en mesure d’évaluer la précision prédictive des modèles au regard de l’équité, de la dérive et des biais.
Un haut niveau de transparence est essentiel à l’instauration d’une IA responsable. L’IA responsable est un ensemble de principes qui guident la conception, le développement, le déploiement et l’utilisation de l’IA. Elle tient compte de l’impact sociétal au sens large des systèmes d’IA et les mesures nécessaires pour aligner ces technologies sur les valeurs des parties prenantes, les normes juridiques et les considérations éthiques.
Les applications d’IA telles que les chatbots d’IA générative, les agents conversationnels et les moteurs de recommandation sont désormais utilisés chaque jour par des dizaines de millions de personnes dans le monde. La transparence sur le fonctionnement de ces outils ne pose généralement pas de problème dans ces domaines à faibles enjeux : si le modèle s’avère inexact ou biaisé, les pertes se limitent à un peu de temps ou d’argent.
Cependant, de plus en plus de secteurs adoptent des applications d’IA pour éclairer les décision à forts enjeux. Par exemple, l’IA aide désormais les entreprises et les utilisateurs à faire des choix d’investissement, à poser des diagnostics médicaux, à prendre des décisions d’embauche, à prononcer des condamnations pénales, etc. Dans pareils cas, les conséquences découlant de résultats biaisés ou inexacts peuvent s’avérer beaucoup plus graves. Les gens peuvent perdre l’épargne de toute une vie, des opportunités de carrière ou des années de leur vie.
Pour que les parties prenantes soient convaincues que l’IA prend des décisions efficaces et équitables en leur nom, elles doivent avoir connaissance du mode de fonctionnement des modèles, de la logique des algorithmes et de la manière dont les modèles sont évalués du point de vue de l’exactitude et de l’équité. Elles ont également besoin d’en savoir plus sur les données utilisées pour entraîner et ajuster les modèles, y compris les sources de données et la manière dont les données sont traitées, pondérées et étiquetées.
En plus d’instaurer un sentiment de confiance, la transparence de l’IA favorise le partage des connaissances et la collaboration dans l’ensemble de l’écosystème de l’IA, et contribue à faire progresser son développement. Les organisations peuvent alors se concentrer davantage sur l’utilisation des technologies d’IA pour atteindre leurs objectifs métier, plutôt que de se préoccuper de leur fiabilité.
Le réseau d’exigences réglementaires entourant l’utilisation de l’IA ne cesse d’évoluer. La transparence des processus de modélisation est essentielle pour se conformer à ces réglementations et répondre aux demandes des validateurs de modèles, des auditeurs et des régulateurs. La loi européenne sur l’intelligence artificielle est considérée comme le premier cadre réglementaire complet au monde en matière d’IA.
La loi européenne sur l’intelligence artificielle adopte une approche réglementaire basée sur les risques, appliquant des règles différentes aux systèmes d’IA selon le niveau de risque qu’ils représentent. Elle interdit purement et simplement certaines utilisations de l’IA et impose des exigences strictes en matière de gouvernance, de gestion des risques et de transparence pour d’autres. Il existe également des obligations de transparence supplémentaires pour certains types d’IA. Voici quelques exemples :
La mise en œuvre du règlement général sur la protection des données (RGPD) de l’UE a amené d’autres pays à adopter des réglementations en matière de confidentialité des données personnelles. De même, les experts prédisent que la loi européenne sur l’IA stimulera le développement de normes de gouvernance et d’éthique à l’égard de l’IA dans le monde entier.
La plupart des pays et des régions n’ont pas encore adopté de législation ou de réglementation complète concernant l’utilisation de l’IA. Cependant, plusieurs cadres étendus ont été mis en place. Bien qu’ils ne soient pas toujours applicables, ils servent à orienter la réglementation future et à favoriser le développement et l’utilisation responsables de l’IA. En voici quelques exemples :
La transparence de l’IA est étroitement liée aux concepts d’explicabilité et d’interprétabilité de l’IA. Ces concepts permettent de résoudre le traditionnel problème de la « boîte noire », à savoir la question pratique et éthique selon laquelle les systèmes d’IA sont si sophistiqués qu’ils sont impossibles à interpréter par les humains. Cependant, ils présentent des définitions et des cas d’utilisation distincts :
L’explicabilité de l’IA, ou l’IA explicable (XAI), est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre les résultats et les productions créés par les modèles de machine learning et de s’y fier. L’explicabilité des modèles examine comment un système d’IA parvient à un résultat spécifique et permet de caractériser la transparence des modèles.
L’interprétabilité de l’IA consiste à rendre l’ensemble du processus d’IA compréhensible par les humains. Ce concept fournit des informations significatives sur la logique sous-jacente, l’importance et les conséquences anticipées du système d’IA. Il s’agit du taux de réussite que les humains peuvent prédire pour les résultats d’une IA, tandis que l’explicabilité va plus loin et examine la manière dont le modèle d’IA est parvenu aux résultats.
La transparence de l’IA ne se limite pas à expliquer les processus de prise de décision de l’IA. Elle englobe les facteurs liés au développement des systèmes d’IA et à leur déploiement, tels que les données d’entraînement de l’IA et les personnes qui y ont accès.
Bien que la transparence de l’IA diffère selon le cas d’utilisation, l’organisation et le secteur d’activité, il existe certaines stratégies que les entreprises peuvent garder à l’esprit lorsqu’elles développent des systèmes d’IA. De manière générale, ces stratégies comprennent des principes clairs en matière de confiance et de transparence, la mise en pratique de ces principes et leur intégration dans l’ensemble du cycle de vie de l’IA.
Une stratégie plus spécifique pour la transparence de l’IA consiste à communiquer des informations complètes à chaque étape du cycle de vie de l’IA. Pour cela, les organisations doivent déterminer quelles informations partager et comment les partager.
Les informations à communiquer sont établies en fonction du cas d’utilisation des modèles, du secteur d’activité, du public et d’autres facteurs. Par exemple, les utilisations à forts enjeux (telles que les évaluations de prêts immobiliers) nécessiteront probablement plus d’informations que les applications à faibles enjeux (telles que la classification audio pour les assistants virtuels).
Les informations communiquées peuvent comprendre tout ou partie des éléments suivants concernant les modèles :
Chaque acteur du cycle de vie de l’IA peut fournir des informations, ce qui permet de répartir la responsabilité sur l’ensemble de l’écosystème plutôt que sur un seul individu. Il existe des plateformes logicielles et des outils disponibles qui permettent d’automatiser la collecte d’informations et d’autres actions de gouvernance de l’IA.
Les organisations peuvent présenter des informations dans différents formats, par exemple papier ou vidéo. Le format dépend à la fois du public et du cas d’utilisation. Les informations sont-elles destinées à des consommateurs et doivent-elles donc être facilement compréhensibles ? Ou bien sont-elles destinées à des data scientists ou à des régulateurs, et doivent-elles donc être très techniques ?
Les formats possibles sont les suivants :
Les pratiques d’IA transparentes présentent de nombreux avantages, mais elles soulèvent également des problèmes de sécurité et de confidentialité. Par exemple, plus l’on communique d’informations sur le fonctionnement interne des projets d’IA, plus il est facile pour les pirates informatiques de trouver et d’exploiter les vulnérabilités. La société OpenAI explique dans son rapport technique de GPT-4 comment elle a résolu ce problème :
« Compte tenu à la fois de l’environnement concurrentiel et des implications en matière de sécurité des modèles à grande échelle tels que GPT-4, ce rapport ne contient pas d’autres informations sur l’architecture (y compris la taille du modèle), le matériel, le calcul d’entraînement, la compilation du jeu de données, la méthode d’entraînement, ou autre4. »
La citation révèle également un autre défi lié à la transparence de l’IA, à savoir le compromis entre transparence et protection de la propriété intellectuelle. Parmi les autres obstacles, on pourrait citer l’explication claire de programmes et d’algorithmes de machine learning complexes (tels que les réseaux neuronaux) à un public non averti et l’absence de normes de transparence au niveau mondial en matière d’IA.
Dirigez, gérez et surveillez les activités d’IA de votre organisation.
Notre équipe internationale, composée de plus de 20 000 experts de l’IA, peut vous aider à concevoir et à adapter de façon sûre et rapide des solutions d’IA et d’automatisation de pointe à l’échelle de votre entreprise.
IBM Research développe des outils pour rendre l’IA plus explicable, plus équitable, plus robuste, plus privée et plus transparente.
Gérez la conformité réglementaire et les exigences de gouvernance interne avec les services IBM Cloud.
Une fiche d’information est un recueil d’informations pertinentes (faits) sur la création et le déploiement d’un modèle ou d’un service d’IA.
La loi européenne sur l’IA est un texte qui régit le développement et l’utilisation de l’intelligence artificielle dans l’Union européenne.
On parle de « biais algorithmique » lorsque des erreurs systématiques dans les algorithmes de machine learning produisent des résultats injustes ou discriminatoires.
L’IA responsable est un ensemble de principes qui guident la conception, le développement, le déploiement et l’utilisation de l’IA.
Tous les liens sont externes au site ibm.com
1. « Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence », The White House, 30 octobre 2023.
2. « Notice and Explanation », The White House.
3. « Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System », Ministry of Foreign Affairs of Japan, 2023.
4. « GPT-4 Technical Report », arXiv, 15 mars 2023.