La Charte des droits de l'IA est un document de référence publié par le gouvernement américain pour garantir les droits civils des citoyens américains face à l'essor de l'intelligence artificielle (IA).
La Charte des droits de l'IA a été présentée en octobre 2022 par le Bureau de la politique scientifique et de la Technologie (OSTP) de la Maison Blanche dans un document intitulé « Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People.» Également appelée le Schéma directeur, la Charte des droits de l'IA a été créée à la suite de consultations avec divers universitaires, groupes de défense des droits humains, organisations à but non lucratif et entreprises du secteur privé.
L'objectif de la Charte des droits de l'IA est de favoriser le développement de politiques et de pratiques qui garantissent le respect des droits civils et des valeurs démocratiques dans le déploiement et la gouvernance des systèmes automatisés. Pour y parvenir, le schéma directeur établit cinq principes visant à atténuer les risques potentiels, comme la discrimination algorithmique. Il traite également des problèmes d'accès aux ressources ou services essentiels pouvant découler du déploiement de l'IA dans des secteurs comme la santé et les services financiers, entre autres.
La Charte des droits de l'IA est fondée sur cinq principes clés qui guident la conception, l'utilisation et le déploiement des systèmes d'IA. Des considérations spécifiques sont apportées pour chaque principe afin de prendre en compte diverses situations où les droits civils des individus, tels que la liberté d'expression, le droit de vote ou le droit à la vie privée, pourraient être menacés.
Le schéma directeur, bien que non contraignant, vise à éclairer les décisions politiques relatives à l'IA dans les cas où la législation ou les politiques existantes ne fournissent pas de directives.
L’AI Bill of Rights américain, ou charte des droits en matière d’IA, s’applique aux systèmes automatisés pouvant avoir une incidence significative sur les droits, les opportunités ou l’accès des citoyens américains à des ressources ou services essentiels. L’AI Bill of Rights concerne les types de systèmes automatisés suivants, sans s’y limiter, en raison de leur impact potentiel sur les droits fondamentaux :
Droits civils, libertés et vie privée : Sont concernés les systèmes liés à la liberté d'expression (par exemple, les outils automatisés de modération de contenu), les algorithmes de surveillance et du système de justice pénale (par exemple, les lecteurs automatiques de plaques d'immatriculation), les systèmes électoraux (par exemple, les outils de vérification de signatures) ainsi que les systèmes pouvant avoir un impact sur la vie privée (par exemple, les systèmes de ciblage publicitaire).
Égalité des chances : Sont concernés les systèmes dans le domaine de l'éducation (par exemple, les logiciels de détection de plagiat), du logement (par exemple, les algorithmes d'évaluation des locataires) et de l'emploi (par exemple, les algorithmes d'embauche ou de licenciement).
Accès aux ressources critiques et services : Sont concernés les technologies de santé et d'assurance maladie (par exemple, les outils de diagnostic assistés par IA), les algorithmes du système financier (par exemple, les systèmes de notation de crédit), les systèmes ayant un impact sur la sécurité des communautés (par exemple, les systèmes de contrôle du réseau électrique) ainsi que les systèmes liés à l'accès aux prestations ou services ou à l'imposition de sanctions (par exemple, les algorithmes de détection des fraudes).
Les cas d'utilisation de l'IA sont en constante évolution, notamment grâce aux progrès du machine learning (ML) et du traitement automatique du langage naturel (NLP). Dans une étude d'Ernst et Young, 90 % des personnes interrogées ont déclaré utiliser l'IA au travail.1 Cependant, l’adoption généralisée de l’IA pose également de nouveaux défis éthiques liés à la transparence, aux biais et à la confidentialité des données. En voici quelques exemples :
Face à ces défis, les développeurs d'IA ont besoin de guides et de cadres éthiques pour une utilisation responsable de l'IA. L’IA responsable est un ensemble de principes qui servent à guider la conception, le développement, le déploiement et l’utilisation de l’IA. Cela considère l'impact sociétal plus large des systèmes d'IA et les mesures à prendre pour garantir l'alignement de l'IA avec les valeurs des parties prenantes, les normes juridiques et les principes éthiques.
Le Schéma directeur vise à établir un cadre complet de bonnes pratiques en matière d' IA responsable afin que la société puisse exploiter tout le potentiel des outils d'IA sans compromettre les libertés civiles fondamentales des individus.
La Charte des droits de l'IA comprend cinq principes conçus en tenant compte des droits civils du public américain. Les cinq principes sont les suivants :
Selon ce principe, les personnes « doivent être préservées des systèmes d’IA dangereux ou inefficaces ». Dans le respect de ce principe, le Schéma directeur encourage les développeurs à travailler en concertation avec des communautés diverses, des parties prenantes et des experts du domaine pour considérer les risques associés à un système d’IA. Ce principe recommande également que les systèmes soient testés avant leur déploiement, que les risques soient identifiés et atténués, et qu’une surveillance continue soit mise en place pour améliorer leur sécurité et leur efficacité. Conformément au Schéma directeur, les résultats de toutes évaluations indépendantes et de tous rapports attestant de la sécurité et de l’efficacité du système doivent être rendus publics autant que possible.
Ce principe stipule que les personnes « ne doivent pas subir de discrimination algorithmique, et que les systèmes doivent être utilisés et conçus de manière équitable ». D'après la Charte des droits de l'IA, la discrimination algorithmique survient lorsque les systèmes automatisés affectent négativement les personnes en raison de caractéristiques telles que l'ethnie, l'orientation sexuelle, le handicap et d'autres caractéristiques protégées par la loi. Pour y remédier, le principe suggère aux créateurs de systèmes automatisés d'utiliser des mesures, telles que des évaluations d'équité, des données représentatives et des tests de disparité, afin de protéger les individus et les communautés à haut risque. Ce principe recommande également des audits indépendants et menés par des tiers.
Ce principe stipule que les personnes « doivent être protégées contre les pratiques abusives en matière de données grâce à des protections intégrées » et « doivent avoir le pouvoir de décider de la manière dont les données les concernant sont utilisées ». Conformément à ce principe, le schéma directeur suggère aux développeurs d’IA de protéger les utilisateurs et leur confidentialité grâce à des choix de conception qui contribuent à garantir que la collecte d’ données personnelles (PII) est strictement nécessaire. Le principe suggère également aux créateurs de faire en sorte que les demandes d’autorisation et de consentement soient brèves et compréhensibles et qu’ils respectent les décisions concernant l’utilisation, l’accès, le transfert et la suppression des données.
Des protections et restrictions renforcées sont exigées pour les informations sensibles telles que celles concernant le travail, la santé, la justice pénale et autres. Le Schéma directeur précise également que les technologies de surveillance doivent être soumises à un contrôle accru pour protéger la vie privée et les libertés civiles des citoyens.
Selon ce principe, les personnes « doivent être conscientes de l’utilisation d’un système automatisé et comprendre comment et pourquoi il contribue aux résultats qui les affectent. » La Charte des droits de l’IA stipule que les concepteurs, développeurs et déployeurs de systèmes automatisés doivent utiliser un langage clair et accessible pour, entre autres, expliquer la fonction du système et le rôle que joue l’automatisation. De plus, le principe suggère que les systèmes automatisés doivent fournir une notification lors de leur utilisation et des explications claires sur la manière dont ils contribuent aux résultats qui affectent les individus.
Ce principe stipule que les personnes « doivent pouvoir se désinscrire, le cas échéant, et avoir accès à un interlocuteur en mesure d’examiner et de résoudre rapidement les problèmes [qu’elles] rencontrent ». Selon le schéma directeur, la détermination du caractère « approprié » doit être fondée sur des « attentes raisonnables » dans le contexte spécifique et doit viser à garantir une large accessibilité et une protection contre les préjudices potentiels. Il est conseillé aux personnes qui cherchent à s’aligner sur ce principe de rendre les considérations humaines et les voies de recours possibles grâce à un processus de secours et de remontée d’informations accessible et opportun, en particulier lorsqu’un système automatisé tombe en panne, produit une erreur ou que quelqu’un souhaite déposer un recours.
Un document technique d’accompagnement, « From Principles to Practice », a été publié en même temps que le schéma directeur. Il fournit des exemples et des mesures que les gouvernements, les secteurs et les communautés peuvent prendre pour intégrer les cinq principes dans les politiques, les pratiques ou la conception technique des systèmes automatisés.
Ensemble, la Charte des droits de l'IA et son complément technique expliquent l'importance de chaque principe, ce à quoi l'on peut s'attendre des systèmes automatisés et comment mettre chaque principe en pratique. Les exemples fournis ne sont ni des critiques ni des approbations, mais visent plutôt à inciter les organisations à intégrer des sauvegardes dans leurs propres opérations et processus de décision en matière d'IA.
Depuis sa publication à Washington DC, la Charte des droits de l'IA a peut-être partiellement inspiré plusieurs agences fédérales à adopter des lignes directrices pour leur propre utilisation responsable de l'IA. Au moment où nous écrivons cet article, 12 agences gouvernementales américaines, dont le département du Commerce (DOC) et le National Institute of Standards and Technology (NIST), ont des exigences en matière d’IA qui couvrent la loi, les politiques et la sécurité nationale.
Le 30 octobre 2023, l' administration Biden a publié un décret visant à établir de nouvelles normes pour une IA sûre, sécurisée et digne de confiance. Dans un communiqué de presse publié six mois plus tard, le DOC a annoncé plusieurs projets de mise en œuvre du décret exécutif.4
Le schéma directeur semble influencer les législateurs des États dans la formulation de nouvelles réglementations. En 2021, l'État de New York a adopté une loi obligeant les employeurs à informer les candidats lorsqu'ils utilisent des technologies IA dans le processus de recrutement. Plusieurs États américains ont désormais des exigences concernant l'utilisation de la technologie de reconnaissance faciale par les forces de l'ordre. Plus récemment, le California Civil Rights Council a proposé des amendements au Fair Employment and Housing Act (FEHA) visant à mieux l'aligner sur la Charte des droits de l'IA.
À l'heure actuelle, 34 pays à travers le monde ont mis en place des stratégies nationales en matière d'intelligence artificielle.5 Il est à noter que l'Union européenne a adopté une loi spécifique, la loi sur l'IA, qui encadre de manière stricte le développement et l'utilisation de cette technologie dans l'ensemble de l'UE. Cette loi adopte une approche réglementaire axée sur les risques, appliquant des règles différentes aux systèmes d’IA selon le niveau de risques qu’ils présentent.
Certaines des protections proposées par la Charte des droits de l'IA sont déjà garanties par la Constitution américaine ou prévues par la législation en vigueur aux États-Unis. Par exemple, la surveillance gouvernementale mentionnée dans le principe de « Confidentialité des données » est déjà soumise à des exigences légales et à un contrôle judiciaire, alors que les lois sur les droits civils existent pour protéger le peuple américain contre la discrimination.
Le Schéma directeur s'aligne sur d'autres normes d'IA, notamment :
L'adoption de nouvelles politiques et pratiques pourrait favoriser la mise en œuvre des protections prévues par la Charte des droits de l'IA. Le schéma directeur admet que, dans certains cas, il pourrait être nécessaire de déroger aux principes afin d'assurer le respect de la législation en vigueur, de prendre en compte les particularités d'un cas d'utilisation spécifique ou de concilier des intérêts publics divergents. Par exemple, les forces de l'ordre et autres organismes gouvernementaux sont encouragés à suivre les lignes directrices énoncées dans la Charte des droits de l'IA. Cependant, pour protéger les droits et la vie privée des personnes, il pourrait être nécessaire d'utiliser des méthodes alternatives.
À l'avenir, la Charte des droits de l'IA pourrait jouer un rôle clé dans l'élaboration de la prochaine vague de politiques, alors que les nations du monde adoptent une approche plus globale de l' IA responsable.
Découvrez l’impact du règlement européen sur l’IA pour les entreprises, comment vous préparer, limiter les risques et concilier réglementation et innovation.
Apprenez-en plus sur les nouveaux défis de l’IA générative, la nécessité de gouverner les modèles d’IA et de ML et les étapes à suivre pour créer un cadre des exigences fiable, transparent et explicable.
Découvrez comment favoriser des pratiques éthiques et conformes grâce à un portefeuille de produits d’IA dédiés aux modèles d’IA générative.
Avec watsonx.governance, apprenez à mieux comprendre comment assurer l’équité, gérer les dérives, maintenir la qualité et améliorer l’explicabilité.
Nous avons interrogé 2 000 entreprises à propos de leurs initiatives d’IA pour découvrir ce qui fonctionne, ce qui ne fonctionne pas et comment progresser.
Découvrez comment choisir le modèle de fondation d’IA le mieux adapté à votre cas d’utilisation.
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.
Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.
1 How organizations can stop skyrocketing AI use from fueling anxiety, Ernst & Young, décembre 2023.
2 Artificial Intelligence is Putting Innocent People at Risk of Being Incarcerated, Innocence Project, Sanford, 14 février 2024.
3 Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 19 février 2023.
4 Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI, US Department of Commerce, 29 avril 2024.
5 A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 13 décembre 2023.