My IBM Se connecter S’abonner

Qu’est-ce que l’IA responsable 

6 février 2024

Auteurs

Cole Stryker

Editorial Lead, AI Models

Gather

Qu’est-ce que l’IA responsable ?

L’intelligence artificielle (IA) responsable est un ensemble de principes qui régissent la conception, le développement, le déploiement et l’utilisation de l’IA, renforçant ainsi la confiance dans les solutions d’IA qui ont le potentiel d’autonomiser les organisations et leurs parties prenantes. L’IA responsable implique la prise en compte d’un impact sociétal plus large des systèmes d’IA et des mesures nécessaires pour aligner ces technologies sur les valeurs des parties prenantes, les normes juridiques et les principes éthiques. L’IA responsable vise à intégrer de tels principes éthiques dans les applications et les workflows IA afin d’atténuer les risques et les résultats négatifs associés à l’utilisation de l’IA, tout en optimisant les résultats.

Cet article vise à fournir une vision générale de l’IA responsable. Pour en savoir plus sur le point de vue spécifique d’IBM, consultez notre page sur l’éthique de l’IA.

L’adoption généralisée du machine learning dans les années 2010, alimentée par les progrès du big data et des capacités de calcul, a généré de nouveaux défis en matière d’éthique, tels que la partialité, la transparence et l’utilisation des données personnelles. L’éthique de l’IA est apparue comme une discipline à part entière au cours de cette période, les entreprises technologiques et les instituts de recherche sur l’IA cherchant à gérer de manière proactive et responsable leurs efforts en matière d’IA.

Selon une étude d’Accenture : « Seuls 35 % des consommateurs mondiaux font confiance à la manière dont la technologie de l’IA est mise en œuvre par les organisations. Et 77 % pensent que les organisations doivent être tenues responsables de leur mauvaise utilisation de l’IA. » 1 Dans cette atmosphère, les développeurs d’IA sont invités à moduler leurs efforts dans un cadre d’IA éthique solide et cohérent.

Cela s’applique en particulier aux nouveaux types d’IA générative, de plus en plus souvent adoptés dans les entreprises. Les principes de l’IA responsable peuvent aider les utilisateurs à exploiter tout le potentiel de ces outils, tout en minimisant les résultats indésirables.

L’IA doit être fiable et pour que les parties prenantes puissent lui faire confiance, elle doit être transparente. Les entreprises doivent être claires à propos de la façon dont elles entraînent leurs systèmes d'IA, des données qui sont utilisées à cette fin et de ce sur quoi s'appuient les recommandations de leurs algorithmes. Si nous voulons utiliser l’IA pour prendre des décisions stratégiques, elle doit être explicable. 

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets.

Les Piliers de la confiance

IBM a élaboré un cadre des exigences pour clarifier ces principes. Examinons les propriétés qui composent les « Piliers de la confiance ». Ces propriétés répondent à la question suivante : « Que faut-il pour faire confiance aux résultats d’un modèle IA ? » Une IA fiable est un impératif stratégique et éthique pour IBM, mais ces piliers peuvent être utilisés par n’importe quelle entreprise pour guider ses efforts en matière d’IA.

Explicabilité

Les modèles de machine learning, tels que les réseaux neuronaux profonds, délivrent un niveau de précision impressionnant dans diverses tâches. Mais l’explicabilité et l’interprétabilité sont encore plus essentielles pour développer une IA digne de confiance. L’approche d’IBM en matière d’explicabilité repose sur trois principes.

Précision des prédictions

La précision est un élément clé de la réussite de l’utilisation de l’IA dans les opérations quotidiennes. En effectuant des simulations et en comparant les résultats de l’IA à ceux du jeu de données d’entraînement, il est possible de déterminer la précision de chaque prédiction. La technique la plus utilisée à cet effet est LIME (pour Local Interpretable Model-Agnostic Explanations), qui explique la prédiction des classificateurs par l’algorithme de machine learning.

Traçabilité

La traçabilité est une propriété de l’IA qui indique si elle permet aux utilisateurs de suivre ses prédictions et ses processus. Il s’agit de la documentation des données et de la manière dont elles sont traitées par les modèles. La traçabilité est une autre technique clé pour assurer l’explicabilité. Elle est réalisée, par exemple, en limitant la manière dont les décisions peuvent être prises et en établissant un champ d’application plus étroit pour les règles et la fonctionnalité du machine learning.

Compréhension des décisions 

C’est le facteur humain. Les praticiens doivent être en mesure de comprendre comment et pourquoi l’IA tire des conclusions. Cet objectif est atteint grâce à la formation continue.

Équité

Les modèles de machine learning sont de plus en plus utilisés pour éclairer une prise de décision à fort enjeu qui concerne des personnes. Bien que le machine learning soit, de par sa nature même, une forme de discrimination statistique, celle-ci devient répréhensible lorsqu’elle place des groupes privilégiés dans une situation d’avantage systématique et d’autres moins privilégiés dans une situation de désavantage systématique, ce qui peut entraîner divers préjudices. Les biais dans les données d’entraînement, dus soit à des préjugés dans les étiquettes, soit à un sous-échantillonnage/suréchantillonnage, produisent des modèles avec des biais indésirables.

  • Données diverses et représentatives

Assurez-vous que les données de formation utilisées pour créer des modèles IA soient diversifiées et représentatives de la population qu’elles sont censées servir. Incluez des données provenant de différents groupes démographiques pour éviter la sous-représentation ou les biais. Vérifiez et évaluez régulièrement les données d’entraînement pour détecter les biais. Utilisez des outils et des méthodes pour identifier et corriger les biais dans le jeu de données avant d’entraîner le modèle.

  • Algorithmes sensibles aux biais

Intégrez des indicateurs d’équité dans le processus de développement pour évaluer comment les différents sous-groupes sont affectés par les prédictions du modèle. Surveillez et minimisez les disparités de résultats entre les différents groupes démographiques. Appliquez des contraintes dans l’algorithme pour vous assurer que le modèle respecte des critères d’équité prédéfinis pendant l’entraînement et le déploiement.

  • Méthodes d’atténuation des biais

Appliquez des techniques telles que le rééchantillonnage, la repondération et l’entraînement contradictoire pour atténuer les biais dans les prédictions du modèle.

  • Des équipes de développement diversifiées

Constituer des équipes interdisciplinaires et diversifiées impliquées dans le développement de l’IA. Des équipes diversifiées peuvent apporter différentes perspectives, ce qui permet d’identifier et de rectifier les biais qui pourraient être négligés par des équipes plus homogènes.

  • Comités d’examen éthique de l’IA

Mettez en place des conseils ou des comités d’examen pour évaluer les biais potentiels et les implications éthiques des projets d’IA. Ces assemblées peuvent fournir des conseils sur les considérations éthiques tout au long du cycle de développement.

Robustesse

L’IA robuste gère efficacement les conditions exceptionnelles, telles que les anomalies en entrée ou les attaques malveillantes, sans causer de dommages non intentionnels. Il est également conçu pour résister aux interférences intentionnelles et non intentionnelles en protégeant contre les vulnérabilités exposées. Notre dépendance accrue à l’égard de ces modèles et la valeur qu’ils représentent en tant qu’accumulation de connaissances confidentielles et exclusives sont de plus en plus susceptibles d’être attaquées. Ces modèles présentent des risques de sécurité spécifiques qui doivent être pris en compte et atténués.

Transparence

Les utilisateurs doivent être en mesure de voir comment le service fonctionne, d’évaluer ses fonctionnalités et de comprendre ses forces et ses limites. Une transparence accrue permet aux consommateurs d’IA de mieux comprendre comment le modèle ou le service IA a été élaboré. Cela permet à un utilisateur du modèle de déterminer s’il convient à un cas d’utilisation donné ou d’évaluer comment une IA a produit des conclusions inexactes ou biaisées.

Confidentialité

De nombreux cadres réglementaires, y compris le RGPD, exigent que les organisations respectent certains principes de confidentialité lors du traitement d’informations personnelles. Un tiers malveillant ayant accès à un modèle ML entraîné, même sans accès aux données d’entraînement elles-mêmes, peut toujours révéler des informations personnelles sensibles sur les personnes dont les données ont été utilisées pour entraîner le modèle. Il est essentiel de pouvoir protéger les modèles IA susceptibles de contenir des informations personnelles et de contrôler les données qui y sont intégrées en premier lieu.

Mise en œuvre des pratiques d’IA responsables

La mise en œuvre de pratiques d’IA responsables au niveau de l’entreprise implique une approche holistique, de bout en bout, qui aborde les différentes étapes du développement et du déploiement de l’IA.

Définir des principes d’IA responsable

Développez un ensemble de principes d’IA responsables conforme aux valeurs et aux objectifs de l’entreprise. Considérez les aspects clés décrits ci-dessus dans les « Piliers de la confiance ». Ces principes peuvent être élaborés et mis à jour par une équipe pluridisciplinaire dédiée et spécialisée dans l’éthique de l’IA, composée de représentants de divers services, notamment des spécialistes de l’IA, des éthiciens, des experts juridiques et des chefs d’entreprise.

Éduquer et sensibiliser

Proposez des programmes de formation pour sensibiliser les employés, les parties prenantes et les décideurs aux pratiques d’IA responsable. Il s’agit notamment de comprendre les biais potentiels, les considérations éthiques et l’importance d’intégrer une IA responsable dans les opérations métier.

Intégrer l’éthique dans le cycle de développement de l’IA

Intégrez des pratiques d’IA responsable tout au long du processus de développement de l’IA, de la collecte de données et de la formation du modèle au déploiement et à la surveillance continue. Utiliser des techniques pour traiter et atténuer les biais dans les systèmes d’IA. Évaluez régulièrement l’équité des modèles, notamment pour les attributs sensibles tels que l’ethnie, le sexe ou le statut socio-économique. Donnez la priorité à la transparence en faisant en sorte que les systèmes d’IA soient justifiables. Documentez de manière claire les sources de données, les algorithmes et les processus de décision. Les utilisateurs et les parties prenantes doivent pouvoir comprendre comment les systèmes d’IA prennent des décisions.

Protéger la confidentialité de l’utilisateur

Établissez des pratiques et des garanties solides en matière de gouvernance des données et de l’IA afin de protéger la vie privée des utilisateurs finaux et les données sensibles. Communiquez clairement les politiques d’utilisation des données, obtenez un consentement éclairé et conformez-vous aux réglementations en matière de protection des données.

Faciliter la surveillance humaine

Intégrez des mécanismes de contrôle humain dans les processus décisionnels critiques. Définissez des lignes de responsabilité claires pour vous assurer que les parties responsables sont identifiées et peuvent être tenues responsables des résultats des systèmes d’IA. Mettez en place une surveillance continue des systèmes d’IA afin d’identifier et de traiter les préoccupations éthiques, les préjugés ou les problèmes qui peuvent survenir au fil du temps. Auditez régulièrement les modèles IA afin d’évaluer leur conformité aux lignes directrices en matière d’éthique.

Encourager la collaboration externe

Encouragez la collaboration avec des organisations externes, des instituts de recherche et des groupes open source qui travaillent sur l’IA responsable. Suivez les derniers développements en matière de pratiques et d’initiatives en matière d’IA responsable et contribuez aux efforts de l’ensemble du secteur.

AI Academy

Confiance, transparence et gouvernance dans l’IA

La confiance est sans doute le sujet dominant dans le domaine de l’intelligence artificielle. C’est aussi un sujet en tous points passionnant. Nous aborderons des questions telles que les hallucinations, les biais et les risques, et partagerons les étapes à suivre pour adopter l’IA de manière éthique, responsable et équitable.

Solutions connexes

Solutions connexes

IBM watsonx.governance

Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.

Découvrir watsonx.governance
Services de conseil en gouvernance de l’IA

Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.

Découvrir les services de gouvernance de l’IA
IBM OpenPages

Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.

Découvrir OpenPages
Passez à l’étape suivante

Dirigez, gérez et surveillez votre IA à l’aide d’un portefeuille unique pour favoriser une IA responsable, transparente et explicable.

Découvrez watsonx.governance Réserver une démo live
Notes de bas de page

1 Technology Vision 2022, Accenture, 2022.