L’IA digne de confiance désigne des systèmes d’intelligence artificielle qui sont explicables, équitables, interprétables, robustes, transparents, sûrs et sécurisés. Ces qualités créent la confiance dans les systèmes d’IA parmi les parties prenantes et les utilisateurs finaux.
L'intelligence artificielle de confiance, ou TAI, peut atténuer les risques potentiels associés au déploiement de modèles IA. Parmi ces risques liés à l'IA figurent les dommages causés aux personnes, aux organisations et aux écosystèmes. En cas de tels dommages, la confiance peut être ébranlée non seulement dans des modèles IA spécifiques, mais aussi dans l'intelligence artificielle dans son ensemble.
Les cadres d'IA digne de confiance peuvent aider les organisations à guider leur démarche de développement, d'adoption et d'évaluation des technologies d'IA. Plusieurs organisations gouvernementales et intergouvernementales ont établi de tels cadres, notamment le National Institute of Standards and Technology (NIST) aux États-Unis, le Groupe d’experts de haut niveau sur l’IA de la Commission européenne et l’Organisation de coopération et de développement économiques (OCDE).
En outre, les entreprises peuvent mettre en œuvre divers outils et stratégies pour améliorer la fiabilité de leurs systèmes d’IA. Par exemple, associer surveillance continue, documentation et cadres de gouvernance de l’IA permet de réduire les risques.
Comprendre le fonctionnement d’une technologie est souvent essentiel pour avoir confiance en son efficacité. Mais de nombreux systèmes d’IA et de machine learning (ML), comme les modèles d'apprentissage profond, fonctionnent comme de véritables boîtes noires. Ils ingèrent des données et produisent des sorties, sans offrir de visibilité sur les processus décisionnels sous-jacents.
Par conséquent, la confiance fait cruellement défaut. Selon une enquête de 2023, plus de 40 % des dirigeants d'entreprise ont cité la fiabilité de l'IA parmi leurs préoccupations.1 En parallèle, la méfiance des consommateurs envers l'IA s'est également manifestée : une étude de 2024 a révélé que l'inclusion du terme « intelligence artificielle » dans l'étiquetage d'un produit peut dissuader les acheteurs de l'acquérir.2
Les exemples réels de systèmes d'IA produisant des résultats erronés ou nuisibles dans des cas d'utilisation critiques contribuent à renforcer les inquiétudes concernant la confiance en l'IA. Dans un exemple bien connu dans le domaine de la santé, un modèle IA n'a pas réussi à diagnostiquer la septicémie de manière fiable. Si le modèle présentait de bonnes performances dans un environnement d'entraînement, il n'a pas détecté la septicémie chez plus des deux tiers des patients hospitalisés.3
Dans d'autres cas, les modèles IA ont montré des biais dans la prise de décision algorithmique, notamment dans les systèmes de police prédictive qui ciblent de manière disproportionnée les communautés minoritaires et dans les systèmes de suivi des candidats qui favorisent les candidats masculins par rapport aux candidates féminines. Il y a également des problèmes de sécurité, comme les chatbots IA révélant par inadvertance des données personnelles sensibles et les pirates informatiques exploitant les vulnérabilités des modèles IA pour voler des informations commerciales propriétaires.
Lorsque les modèles d’IA ne sont pas assez performants ou produisent des résultats néfastes, cela peut miner la confiance non seulement dans ces modèles, mais aussi dans l’intelligence artificielle en général, ce qui risque d’entraver le développement et l’adoption de l’IA à l’avenir. Pour obtenir des systèmes d’IA dignes de confiance et soutenir le développement futur dans ce domaine, il convient d’éclairer l’intérieur de la boîte noire métaphorique de l’IA. Les parties prenantes pourront ainsi compter sur leurs applications d’IA pour fournir des résultats fiables et précis tout en minimisant les risques de résultats biaisés ou non conformes à l’intention initiale.
Différentes organisations et cadres des exigences définissent divers principes directeurs et objectifs pour une IA digne de confiance. Parmi les principes d'IA digne de confiance fréquemment cités, on retrouve :
La responsabilité en matière d'IA implique de tenir les acteurs de l'IA responsables du bon fonctionnement des systèmes d'IA tout au long de leur cycle de vie. Cela inclut les individus et les organisations qui participent au développement, au déploiement ou à l'exploitation de la technologie de l'IA.4
L'explicabilité de l'IA consiste à vérifier ou à fournir des justifications pour les sorties d'un modèle. Il existe diverses méthodes d'explicabilité, connues collectivement sous le nom d'IA explicable, qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes de machine learning.
L'équité en matière d'IA fait référence au traitement équitable des individus et des groupes. Cela requiert la réduction des biais algorithmiques et des biais liés aux données. Le biais algorithmique se manifeste lorsque des erreurs systématiques dans les algorithmes de machine learning conduisent à des résultats injustes ou discriminatoires, tandis que le biais des données renvoie à la nature biaisée ou non représentative des données d'entraînement utilisées pour un modèle IA.
L’interprétabilité de l’IA aide les utilisateurs à mieux comprendre et expliquer les processus décisionnels des modèles d’IA. L’interprétabilité se réfère à la transparence, qui permet aux utilisateurs de comprendre l’architecture d’un modèle, les caractéristiques qu’il utilise et la manière dont il les combine pour fournir des prédictions. Si certains modèles sont interprétables par nature, d’autres nécessitent l’utilisation de méthodes d’interprétation.
La confidentialité des données d’IA fait référence à la protection des informations personnelles ou sensibles qui sont collectées, utilisées, partagées ou stockées par l’IA. La confidentialité de l’IA est étroitement liée à la confidentialité des données. La confidentialité des données, aussi connue sous le nom de confidentialité des informations, est le principe selon lequel une personne devrait avoir le contrôle sur ses données personnelles. La préservation de la confidentialité des données et de l'IA peut être améliorée par l'utilisation de différentes méthodes, allant de la cryptographie à l'apprentissage fédéré.
On entend par fiabilité la capacité à fonctionner conformément aux attentes, sans panne, sur une période déterminée et dans des conditions précises. Les systèmes d'IA fiables, utilisés dans des conditions normales, doivent garantir des résultats précis pendant une période donnée, pouvant couvrir toute la durée de vie de ces systèmes.5
Les systèmes d'IA fiables et robustes intègrent des mécanismes de protection contre les attaques malveillantes et l'accès non autorisé, réduisant ainsi les risques et vulnérabilités liés à la cybersécurité. Ils peuvent opérer dans des conditions anormales sans causer de tort involontaire et reprendre leur fonction normale après un incident imprévu.
Les systèmes d'IA fiables ne compromettent pas la vie, la santé, les biens ou l'environnement humain. Ils sont conçus de manière proactive pour éviter tout dommage aux individus et incluent des mesures qui limitent les risques, y compris la possibilité de retirer un système en cas de besoin.6
Les systèmes d’IA qui ne sont pas dignes de confiance présentent de nombreux risques. Le National Institute of Standards and Technology (NIST), une agence du département du Commerce des États-Unis, a développé un cadre d’exigences qui est devenu une référence pour la gestion des risques liés à l’IA. Ce cadre répartit les risques liés aux dommages potentiels causés par les systèmes d’IA selon les catégories suivantes :7
Cette catégorie couvre les dangers menaçant les libertés civiles, les droits, la sécurité physique ou mentale, ainsi que les opportunités économiques des individus. Cela englobe également les répercussions sur les groupes, comme la discrimination, et sur les sociétés, à travers les atteintes à la participation démocratique ou à l'accès à l'éducation.
Cette catégorie englobe les dommages causés aux opérations d'une organisation, les pertes résultant de violations de la sécurité ou de pertes financières, ainsi que les impacts sur sa réputation.
Cette catégorie comprend les dommages causés aux « éléments et ressources interconnectés et interdépendants ». Le NIST cite spécifiquement les dommages causés au système financier mondial, à la chaîne d’approvisionnement ou aux « systèmes interdépendants », ainsi qu’aux ressources naturelles, à l’environnement et à la planète.
Des réponses biaisées ou incorrectes générées par les systèmes d'IA peuvent avoir des conséquences néfastes multiples. Pour reprendre l'exemple précédent, les systèmes de suivi des candidatures biaisés peuvent compromettre les opportunités économiques des candidats et nuire à l'image de l'organisation. Si un grand modèle de langage (LLM) est manipulé pour exécuter un logiciel malveillant paralysant les opérations d'une société, cela pourrait nuire à la fois à l'entreprise et à la chaîne d'approvisionnement dont elle fait partie.
Les systèmes d'IA digne de confiance pourraient permettre d'éviter de telles situations et leurs conséquences graves. D'après le NIST, « [l]es systèmes d'IA digne de confiance et leur usage responsable peuvent réduire les risques négatifs et apporter des avantages aux personnes, aux organisations et aux écosystèmes. »
Ces dernières années, différents cadres ont vu le jour pour aider les fournisseurs et les utilisateurs d’IA à développer, à déployer et à exploiter des systèmes d’IA dignes de confiance. En voici quelques exemples :
Publié en janvier 2023, le cadre des exigences de gestion des risques liés à l’IA (AI RMF) du NIST comprend un aperçu des risques liés à l’IA tout au long du cycle de vie de l’IA, ainsi que les caractéristiques des systèmes d’IA digne de confiance. Le cadre des exigences décrit également des mesures spécifiques pour aider les Organisation à gérer ces systèmes, notamment les tâches de test, d’évaluation, de vérification et de validation.
Le cadre des exigences s’applique à n’importe quelle entreprise ou zone géographique, mais le NIST reconnaît que toutes les caractéristiques de l’IA digne de confiance ne s’appliquent pas à tous les contextes. Le cadre des exigences encourage l’utilisation du jugement humain dans le choix des indicateurs de fiabilité applicables et la prise en compte du fait que des compromis sont généralement impliqués lors de l’optimisation d’une caractéristique d’IA digne de confiance ou d’une autre. En juillet 2024, le NIST a publié une ressource complémentaire à IA RMF, axée sur l'IA générative.
Les principes de l’IA de l’OCDE promeuvent le respect des droits de l’homme et des valeurs démocratiques dans l’utilisation de l’IA. Adopté en mai 2019 et mis à jour en mai 2024, le cadre des exigences comprend à la fois des principes fondés sur des valeurs et des recommandations à l’intention des décideurs politiques. L’OCDE présente ces recommandations comme les premières normes intergouvernementales pour l’IA, avec 47 adhésions dans le monde, dont les États-Unis, les pays de l’Union européenne et les pays d’Amérique du Sud et d’Asie.
Les lignes directrices de l’Union européenne, qui ont été publiées en avril 2019 par le groupe d’experts de haut niveau de la Commission européenne, se concentrent sur l’éthique de l’IA et mettent l’accent sur une approche « centrée sur l’humain » du développement de l’IA dans l’UE. Les directives incluaient 7 principes éthiques, parmi lesquels « l'autonomie humaine et la supervision » et « le bien-être sociétal et environnemental ». L’année suivante, le groupe publie la Liste d’évaluation pour l’IA digne de confiance (lien externe à ibm.com), qui aide les organisations à évaluer leurs systèmes d’IA.
Bien que les directives en elles-mêmes ne soient pas contraignantes, elles ont été reprises plus tard dans le texte historique du Règlement européen sur l’IA qui régit le développement ou l’utilisation de l’intelligence artificielle au sein de l’Union européenne. Le texte du règlement stipule que les principes éthiques de l’UE en matière d’IA « doivent être transposés, lorsque cela est possible, dans la conception et l’utilisation des modèles d’IA ».8
D'autres organisations ont également publié des cadres et des lignes directrices encourageant une IA digne de confiance, notamment le Bureau de la science et de la technologie de la Maison Blanche (par le biais de son schéma directeur pour la Charte des Droits de l'IA), et des entreprises telles que Deloitte (lien externe à ibm.com) et IBM.
Les termes IA digne de confiance, IA éthique et IA responsable sont souvent utilisés de manière interchangeable. De plus, étant donné que les définitions de chaque concept peuvent différer d'une source à l'autre et inclure fréquemment des recouvrements significatifs, il peut être complexe de faire des distinctions nettes entre les trois.
Par exemple, les définitions communes de l’IA digne de confiance et de l’IA éthique énumèrent des principes comme l’équité et la confidentialité comme fondement de chaque concept. De même, les attributs « responsable » et « transparent » sont souvent associés à la fois à l'IA digne de confiance et à l'IA responsable.
Une façon de distinguer les 3 notions consiste à se concentrer non pas sur leurs principes fondamentaux, mais sur la façon dont elles sont utilisées :
Les entreprises doivent prendre des mesures pour s’assurer que leurs systèmes d’intelligence artificielle, y compris leurs algorithmes d’IA et leurs jeux de données, respectent les principes d’une IA digne de confiance.
Évaluation : l’évaluation des processus métier alimentés par l’IA permet aux entreprises d’identifier les points à améliorer en fonction de différents indicateurs de fiabilité.
Surveillance continue : une surveillance continue à la recherche de problèmes tels que les biais de l’IA et la dérive des modèles, permet aux entreprises de corriger de manière proactive les processus et sorties inéquitables ou inexacts.
Gestion des risques : mettre en place un cadre et des outils de gestion des risques permet de détecter et de réduire le risque de violation de la sécurité et de la vie privée afin de renforcer l’IA.
Documentation : tout au long du cycle de vie des données et de l’IA, l’utilisation d’une documentation automatisée à des fins d’audit sectoriel et réglementaire favorise la responsabilisation et la transparence.
Gouvernance de l’IA : les cadres de gouvernance de l’IA incluent des procédures de gestion des données et des modèles qui contribuent à assurer le respect des normes internes et des réglementations gouvernementales par les développeurs et les data scientists au sein d’une organisation.
Les logiciels de gestion de l'IA et les ensembles d'outils open source peuvent soutenir les organisations dans la mise en œuvre de ces actions et d'autres pour renforcer la confiance dans leurs systèmes d'IA. En mettant en place les bonnes mesures et sécurités, les entreprises peuvent limiter les risques tout en profitant de la puissance de l'IA.
1 « Workday Global Survey : 98 % of CEOs Say Their Organizations Would Benefit from Implementing AI, But Trust Remains a Concern », Workday, 14 septembre 2023.
2 « Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions : the mediating role of emotional trust and the moderating role of perceived risk », Journal of Hospitality Marketing & Management. 19 juin 2024.
3 « From theory to pratique: Harmonizing taxonomies of trustworthy AI », Health Policy OPEN, 5 septembre 2024.
4 « Principes de l’OCDE sur l’IA : Responsabilité (Principe 1.5) », OCDE, consulté le 17 octobre 2024.
5,7 « Artificial Intelligence Risk Management Framework (AI RMF 1.0) », National Institute of Standards and Technology, US Department of Commerce, janvier 2023.
6 « Blueprint for an AI Privacy Bill of Rights: Safe and Effective Systems », l’Office for Science and Technology Policy de la Maison Blanche, consulté le 17 octobre 2024.
8 « Loi européenne sur l’intelligence artificielle : considérant 27 », l’Union européenne, 13 juin 2024.
Découvrez l’impact du règlement européen sur l’IA pour les entreprises, comment vous préparer, limiter les risques et concilier réglementation et innovation.
Apprenez-en plus sur les nouveaux défis de l’IA générative, la nécessité de gouverner les modèles d’IA et de ML et les étapes à suivre pour créer un cadre des exigences fiable, transparent et explicable.
Découvrez comment favoriser des pratiques éthiques et conformes grâce à un portefeuille de produits d’IA dédiés aux modèles d’IA générative.
Avec watsonx.governance, apprenez à mieux comprendre comment assurer l’équité, gérer les dérives, maintenir la qualité et améliorer l’explicabilité.
Nous avons interrogé 2 000 entreprises à propos de leurs initiatives d’IA pour découvrir ce qui fonctionne, ce qui ne fonctionne pas et comment progresser.
Découvrez comment choisir le modèle de fondation d’IA le mieux adapté à votre cas d’utilisation.
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.
Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.