Qu'est-ce que la Charte des droits de l'IA ?

27 septembre 2024

Auteurs

Alexandra Jonker

Editorial Content Lead

Qu'est-ce que la Charte des droits de l'IA ?

La Charte des droits de l'IA est un document de référence publié par le gouvernement américain pour garantir les droits civils des citoyens  américains face à l'essor de l'intelligence artificielle (IA).

La Charte des droits de l'IA a été présentée en octobre 2022 par le Bureau de la politique scientifique et de la Technologie (OSTP) de la Maison Blanche dans un document intitulé « Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People.» Également appelée le Schéma directeur, la Charte des droits de l'IA a été créée à la suite de consultations avec divers universitaires, groupes de défense des droits humains, organisations à but non lucratif et entreprises du secteur privé.

L'objectif de la Charte des droits de l'IA est de favoriser le développement de politiques et de pratiques qui garantissent le respect des droits civils et des valeurs démocratiques dans le déploiement et la gouvernance des systèmes automatisés. Pour y parvenir, le schéma directeur établit cinq principes visant à atténuer les risques potentiels, comme la discrimination algorithmique. Il traite également des problèmes d'accès aux ressources ou services essentiels pouvant découler du déploiement de l'IA dans des secteurs comme la santé et les services financiers, entre autres.

La Charte des droits de l'IA est fondée sur cinq principes clés qui guident la conception, l'utilisation et le déploiement des systèmes d'IA. Des considérations spécifiques sont apportées pour chaque principe afin de prendre en compte diverses situations où les droits civils des individus, tels que la liberté d'expression, le droit de vote ou le droit à la vie privée, pourraient être menacés.

Le schéma directeur, bien que non contraignant, vise à éclairer les décisions politiques relatives à l'IA dans les cas où la législation ou les politiques existantes ne fournissent pas de directives.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets.

Quels systèmes d'IA sont concernés par la Charte des droits de l'IA ?

L’AI Bill of Rights américain, ou charte des droits en matière d’IA, s’applique aux systèmes automatisés pouvant avoir une incidence significative sur les droits, les opportunités ou l’accès des citoyens américains à des ressources ou services essentiels. L’AI Bill of Rights concerne les types de systèmes automatisés suivants, sans s’y limiter, en raison de leur impact potentiel sur les droits fondamentaux :

Droits civils, libertés et vie privée : Sont concernés les systèmes liés à la liberté d'expression (par exemple, les outils automatisés de modération de contenu), les algorithmes de surveillance et du système de justice pénale (par exemple, les lecteurs automatiques de plaques d'immatriculation), les systèmes électoraux (par exemple, les outils de vérification de signatures) ainsi que les systèmes pouvant avoir un impact sur la vie privée (par exemple, les systèmes de ciblage publicitaire).

Égalité des chances : Sont concernés les systèmes dans le domaine de l'éducation (par exemple, les logiciels de détection de plagiat), du logement (par exemple, les algorithmes d'évaluation des locataires) et de l'emploi (par exemple, les algorithmes d'embauche ou de licenciement).

Accès aux ressources critiques et services : Sont concernés les technologies de santé et d'assurance maladie (par exemple, les outils de diagnostic assistés par IA), les algorithmes du système financier (par exemple, les systèmes de notation de crédit), les systèmes ayant un impact sur la sécurité des communautés (par exemple, les systèmes de contrôle du réseau électrique) ainsi que les systèmes liés à l'accès aux prestations ou services ou à l'imposition de sanctions (par exemple, les algorithmes de détection des fraudes).

AI Academy

Confiance, transparence et gouvernance dans l’IA

La confiance est sans doute le sujet dominant dans le domaine de l’intelligence artificielle. C’est aussi un sujet en tous points passionnant. Nous aborderons des questions telles que les hallucinations, les biais et les risques, et partagerons les étapes à suivre pour adopter l’IA de manière éthique, responsable et équitable.

Pourquoi la Charte des droits de l'IA est-elle importante ?

Les cas d'utilisation de l'IA sont en constante évolution, notamment grâce aux progrès du machine learning (ML) et du traitement automatique du langage naturel (NLP). Dans une étude d'Ernst et Young, 90 % des personnes interrogées ont déclaré utiliser l'IA au travail.1 Cependant, l’adoption généralisée de l’IA pose également de nouveaux défis éthiques liés à la transparence, aux biais et à la confidentialité des données. En voici quelques exemples :

  • Les logiciels de reconnaissance faciale (FRS) utilisés par les forces de l'ordre peuvent présenter des biais. Des chercheurs ont déjà confirmé plusieurs cas de mauvaise identification causés par l'intelligence artificielle, dont la plupart impliquent des personnes noires qui ont été accusées à tort.2

  • Les hallucinations de l’IA désignent une situation où un système automatisé perçoit à tort un schéma et produit une réponse absurde ou erronée. Dans un cas, des chercheurs ont demandé à ChatGPT de fournir des informations sur la pathogenèse de deux maladies. L’IA a produit un article complet avec des citations et des identifiants PubMed. Après vérification des faits, les chercheurs ont constaté que les documents avaient été inventés et que les identifiants avaient été extraits d’autres documents.3

  • Selon une étude menée par IBM auprès des cadres dirigeants, seuls 24 % des projets d’IA générative comportent actuellement un composante de sécurisation. En fait, près de 70 % des personnes interrogées affirment que l’innovation prime sur la sécurité.

Face à ces défis, les développeurs d'IA ont besoin de guides et de cadres éthiques pour une utilisation responsable de l'IA. L’IA responsable  est un ensemble de principes qui servent à guider la conception, le développement, le déploiement et l’utilisation de l’IA. Cela considère l'impact sociétal plus large des systèmes d'IA et les mesures à prendre pour garantir l'alignement de l'IA avec les valeurs des parties prenantes, les normes juridiques et les principes éthiques.

Le Schéma directeur vise à établir un cadre complet de bonnes pratiques en matière d' IA responsable afin que la société puisse exploiter tout le potentiel des outils d'IA sans compromettre les libertés civiles fondamentales des individus.

Les cinq principes de la Charte des droits de l'IA

La Charte des droits de l'IA comprend cinq principes conçus en tenant compte des droits civils du public américain. Les cinq principes sont les suivants :

  • Systèmes sûrs et efficaces
  • Protection contre la discrimination algorithmique
  • Confidentialité des données
  • Avis et explications
  • Solutions humaines alternatives, considération et plan de repli

Systèmes sûrs et efficaces

Selon ce principe, les personnes « doivent être préservées des systèmes d’IA dangereux ou inefficaces ». Dans le respect de ce principe, le Schéma directeur encourage les développeurs à travailler en concertation avec des communautés diverses, des parties prenantes et des experts du domaine pour considérer les risques associés à un système d’IA. Ce principe recommande également que les systèmes soient testés avant leur déploiement, que les risques soient identifiés et atténués, et qu’une surveillance continue soit mise en place pour améliorer leur sécurité et leur efficacité. Conformément au Schéma directeur, les résultats de toutes évaluations indépendantes et de tous rapports attestant de la sécurité et de l’efficacité du système doivent être rendus publics autant que possible.

Protection contre la discrimination algorithmique

Ce principe stipule que les personnes « ne doivent pas subir de discrimination algorithmique, et que les systèmes doivent être utilisés et conçus de manière équitable ». D'après la Charte des droits de l'IA, la discrimination algorithmique survient lorsque les systèmes automatisés affectent négativement les personnes en raison de caractéristiques telles que l'ethnie, l'orientation sexuelle, le handicap et d'autres caractéristiques protégées par la loi. Pour y remédier, le principe suggère aux créateurs de systèmes automatisés d'utiliser des mesures, telles que des évaluations d'équité, des données représentatives et des tests de disparité, afin de protéger les individus et les communautés à haut risque. Ce principe recommande également des audits indépendants et menés par des tiers.

Confidentialité des données

Ce principe stipule que les personnes « doivent être protégées contre les pratiques abusives en matière de données grâce à des protections intégrées » et « doivent avoir le pouvoir de décider de la manière dont les données les concernant sont utilisées ». Conformément à ce principe, le schéma directeur suggère aux développeurs d’IA de protéger les utilisateurs et leur confidentialité grâce à des choix de conception qui contribuent à garantir que la collecte d’ données personnelles (PII) est strictement nécessaire. Le principe suggère également aux créateurs de faire en sorte que les demandes d’autorisation et de consentement soient brèves et compréhensibles et qu’ils respectent les décisions concernant l’utilisation, l’accès, le transfert et la suppression des données.

Des protections et restrictions renforcées sont exigées pour les informations sensibles telles que celles concernant le travail, la santé, la justice pénale et autres. Le Schéma directeur précise également que les technologies de surveillance doivent être soumises à un contrôle accru pour protéger la vie privée et les libertés civiles des citoyens.

Avis et explications

Selon ce principe, les personnes « doivent être conscientes de l’utilisation d’un système automatisé et comprendre comment et pourquoi il contribue aux résultats qui les affectent. » La Charte des droits de l’IA stipule que les concepteurs, développeurs et déployeurs de systèmes automatisés doivent utiliser un langage clair et accessible pour, entre autres, expliquer la fonction du système et le rôle que joue l’automatisation. De plus, le principe suggère que les systèmes automatisés doivent fournir une notification lors de leur utilisation et des explications claires sur la manière dont ils contribuent aux résultats qui affectent les individus.

Solutions humaines alternatives, considération et plan de repli

Ce principe stipule que les personnes « doivent pouvoir se désinscrire, le cas échéant, et avoir accès à un interlocuteur en mesure d’examiner et de résoudre rapidement les problèmes [qu’elles] rencontrent ». Selon le schéma directeur, la détermination du caractère « approprié » doit être fondée sur des « attentes raisonnables » dans le contexte spécifique et doit viser à garantir une large accessibilité et une protection contre les préjudices potentiels. Il est conseillé aux personnes qui cherchent à s’aligner sur ce principe de rendre les considérations humaines et les voies de recours possibles grâce à un processus de secours et de remontée d’informations accessible et opportun, en particulier lorsqu’un système automatisé tombe en panne, produit une erreur ou que quelqu’un souhaite déposer un recours.

« Des principes à la pratique »

Un document technique d’accompagnement, « From Principles to Practice », a été publié en même temps que le schéma directeur. Il fournit des exemples et des mesures que les gouvernements, les secteurs et les communautés peuvent prendre pour intégrer les cinq principes dans les politiques, les pratiques ou la conception technique des systèmes automatisés.

Ensemble, la Charte des droits de l'IA et son complément technique expliquent l'importance de chaque principe, ce à quoi l'on peut s'attendre des systèmes automatisés et comment mettre chaque principe en pratique. Les exemples fournis ne sont ni des critiques ni des approbations, mais visent plutôt à inciter les organisations à intégrer des sauvegardes dans leurs propres opérations et processus de décision en matière d'IA.

Quel est l’impact de l’AI Bill of Rights ?

Depuis sa publication à Washington DC, la Charte des droits de l'IA a peut-être partiellement inspiré plusieurs agences fédérales à adopter des lignes directrices pour leur propre utilisation responsable de l'IA. Au moment où nous écrivons cet article, 12 agences gouvernementales américaines, dont le département du Commerce (DOC) et le National Institute of Standards and Technology (NIST), ont des exigences en matière d’IA qui couvrent la loi, les politiques et la sécurité nationale.

Le 30 octobre 2023, l' administration Biden a publié un décret visant à établir de nouvelles normes pour une IA sûre, sécurisée et digne de confiance. Dans un communiqué de presse publié six mois plus tard, le DOC a annoncé plusieurs projets de mise en œuvre du décret exécutif.4

Le schéma directeur semble influencer les législateurs des États dans la formulation de nouvelles réglementations. En 2021, l'État de New York a adopté une loi obligeant les employeurs à informer les candidats lorsqu'ils utilisent des technologies IA dans le processus de recrutement. Plusieurs États américains ont désormais des exigences concernant l'utilisation de la technologie de reconnaissance faciale par les forces de l'ordre. Plus récemment, le California Civil Rights Council a proposé des amendements au Fair Employment and Housing Act (FEHA) visant à mieux l'aligner sur la Charte des droits de l'IA.

À l'heure actuelle, 34 pays à travers le monde ont mis en place des stratégies nationales en matière d'intelligence artificielle.Il est à noter que l'Union européenne a adopté une loi spécifique, la loi sur l'IA, qui encadre de manière stricte le développement et l'utilisation de cette technologie dans l'ensemble de l'UE. Cette loi adopte une approche réglementaire axée sur les risques, appliquant des règles différentes aux systèmes d’IA selon le niveau de risques qu’ils présentent.

Comment la Charte des droits de l'IA se rapporte-t-elle aux politiques existantes ?

Certaines des protections proposées par la Charte des droits de l'IA sont déjà garanties par la Constitution américaine ou prévues par la législation en vigueur aux États-Unis. Par exemple, la surveillance gouvernementale mentionnée dans le principe de « Confidentialité des données » est déjà soumise à des exigences légales et à un contrôle judiciaire, alors que les lois sur les droits civils existent pour protéger le peuple américain contre la discrimination.

Le Schéma directeur s'aligne sur d'autres normes d'IA, notamment :

  • La Recommendation de 2019 de l’Organisation de coopération et de développement économiques (OCDE) sur l’ intelligence artificielle. Il s'agit notamment des principes de gestion responsable de l'IA digne de confiance, que les États-Unis ont adoptés.

  • Décret exécutif 13960 sur la promotion de l’utilisation de l’intelligence artificielle digne de confiance au sein du gouvernement fédéral. Cette définition énonce les principes qui régissent l’ utilisation de l’IA par le  gouvernement fédéral.

  • Le décret exécutif 13985 relatif à la promotion de l'équité raciale et au soutien aux communautés défavorisées par le gouvernement fédéral.

L'adoption de nouvelles politiques et pratiques pourrait favoriser la mise en œuvre des protections prévues par la Charte des droits de l'IA. Le schéma directeur admet que, dans certains cas, il pourrait être nécessaire de déroger aux principes afin d'assurer le respect de la législation en vigueur, de prendre en compte les particularités d'un cas d'utilisation spécifique ou de concilier des intérêts publics divergents. Par exemple, les forces de l'ordre et autres organismes gouvernementaux sont encouragés à suivre les lignes directrices énoncées dans la Charte des droits de l'IA. Cependant, pour protéger les droits et la vie privée des personnes, il pourrait être nécessaire d'utiliser des méthodes alternatives.

À l'avenir, la Charte des droits de l'IA pourrait jouer un rôle clé dans l'élaboration de la prochaine vague de politiques, alors que les nations du monde adoptent une approche plus globale de l' IA responsable.

Solutions connexes
IBM watsonx.governance

Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.

Découvrir watsonx.governance
Services de conseil en gouvernance de l’IA

Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.

Découvrir les services de gouvernance de l’IA
IBM OpenPages

Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.

Découvrir OpenPages
Passez à l’étape suivante

Dirigez, gérez et surveillez votre IA à l’aide d’un portefeuille unique pour favoriser une IA responsable, transparente et explicable.

Découvrez watsonx.governance Réserver une démo live
Notes de bas de page

How organizations can stop skyrocketing AI use from fueling anxiety, Ernst & Young, décembre 2023.

Artificial Intelligence is Putting Innocent People at Risk of Being Incarcerated, Innocence Project, Sanford, 14 février 2024.

Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 19 février 2023.

Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI, US Department of Commerce, 29 avril 2024.

A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 13 décembre 2023.