L'éthique de l'IA
aurore circulaire
L'éthique de l'IA

Découvrez l'éthique de l'IA, un cadre qui guide les spécialistes des données et les chercheurs pour construire des systèmes d'IA de manière éthique qui bénéficient à la société tout entière.


Cet article offre une vision globale du marché de l'éthique de l'IA dans l'industrie aujourd'hui. Pour en savoir plus sur le point de vue d'IBM, consultez notre page sur l'éthique de l'IA ici.

Éthique de l'IA avancée aujourd'hui

Découvrez-en plus sur la manière dont vous mettez en pratique les principes de l'éthique de l'IA. (318 Ko)


Qu'est-ce que l'éthique de l'IA ?

L'éthique est un ensemble de principes moraux qui nous permettent discerner le bien et le mal. L'éthique de l'IA est un ensemble de lignes de conduite qui donnent des conseils sur la conception et les résultats de l'intelligence artificielle. Les êtres humains ont toutes sortes de biais cognitifs, comme le biais de récence et de confirmation, et ces biais inhérents se manifestent dans nos comportements et, donc, dans nos données. Comme les données constituent le socle de tous les algorithmes d'apprentissage automatique, il est important que nous structurions les expériences et les algorithmes en gardant cela à l'esprit, car l'intelligence artificielle a le potentiel d'amplifier et d'étendre ces biais humains à un rythme sans précédent.

Avec l'émergence du Big Data, les entreprises se concentrent sur l'automatisation et la prise de décision basée sur les données dans l'ensemble de leurs services. Même si l'objectif vise généralement, sinon toujours, à améliorer les résultats de l'entreprise, les entreprises subissent des conséquences imprévues dans certaines de leurs applications d'IA, notamment en raison d'une conception déficiente de la recherche initiale et de jeux de données biaisés.

Face à la révélation de cas d'iniquité, de nouvelles lignes directrices ont émergé, principalement de la part des milieux de la recherche et de la science des données, pour répondre aux préoccupations concernant l’éthique de l’IA. Les grandes entreprises du secteur de l'IA ont également un intérêt direct dans l'élaboration de ces lignes directrices, car elles commencent elles-mêmes à souffrir de certaines des conséquences du non-respect des normes éthiques dans leurs produits. Le manque de rigueur dans ce domaine peut avoir des conséquences qui peuvent ternir la réputation, poser des problèmes de réglementation et exposer à des procédures judiciaires donnant lieu à des sanctions coûteuses. Comme pour toutes les avancées technologiques, l'innovation tend à dépasser la réglementation gouvernementale dans les domaines nouveaux et émergents. À mesure que l'expertise appropriée se développe au sein de l'administration, on peut s'attendre à ce que les entreprises suivent davantage de protocoles d'IA, leur permettant d'éviter toute atteinte aux droits de l'homme et aux libertés civiles.

Produits à la une

IBM Cloud Pak for Data

Watson Studio


Établir des principes pour l'éthique de l'IA

Alors que des règles et des protocoles sont élaborés pour gérer l'utilisation de l'IA, la communauté universitaire s'est appuyée sur le rapport Belmont (lien externe à IBM) (PDF, 121 Ko) pour guider l'éthique dans la recherche expérimentale et le développement algorithmique. Le rapport Belmont fait ressortir trois grands principes qui servent de ligne directrice pour les expériences et la conception d'algorithmes :

  1. Respect des personnes : ce principe reconnaît l'autonomie des personnes et exige des chercheurs qu'ils protègent les personnes dont l'autonomie est réduite à la suite de diverses circonstances telles que maladie, handicap mental ou limitations liées à l'âge. Ce principe touche principalement à l'idée de consentement. Les individus doivent être conscients des risques et des avantages potentiels de toute expérience à laquelle ils participent, et ils doivent pouvoir choisir de participer ou de se rétracter à tout moment avant et pendant l'expérience.
  2. Bien-être :ce principe s'inspire de l'éthique des soins de santé, où les médecins font le serment de « ne pas nuire ». Cette idée peut être facilement appliquée à l'intelligence artificielle, où les algorithmes peuvent amplifier les préjugés liés à la race, au sexe, aux tendances politiques, etc., malgré l'intention de faire le bien et d'améliorer un système donné.
  3. Justice : ce principe porte sur des questions telles que l'équité et l'égalité. Qui doit bénéficier des avantages de l'expérimentation et de l'apprentissage automatique ? Le rapport Belmont propose cinq façons de répartir les charges et les avantages :
    • Équité
    • Besoin individuel
    • Effort individuel
    • Contribution sociétal
    • Mérite
Liens connexes

Éthique de l'IA IBM


Principales préoccupations de l'IA aujourd'hui

Un certain nombre de questions sont au premier plan des conversations éthiques entourant les technologies de l'IA. Notamment :

 

Singularité technologique


Bien que ce sujet suscite une grande attention de la part du public, de nombreux chercheurs ne sont pas préoccupés par l'idée que l'IA surpasse l'intelligence humaine dans un avenir proche ou immédiat. On parle également de superintelligence, que Nick Bostrum définit comme « tout intellect qui surpasse largement les plus brillants cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales ». Bien que l'IA forte et la superintelligence ne soient pas imminentes dans la société, leur idée soulève des questions intéressantes lorsque nous envisageons l'utilisation de systèmes autonomes, comme les voitures autonomes. Il est irréaliste de penser qu'une voiture sans conducteur n'aura jamais d'accident de voiture. Mais qui est responsable et redevable dans ce cas ? Devons-nous continuer dans la voie des véhicules autonomes ou devons-nous limiter l'intégration de cette technologie pour créer uniquement des véhicules semi-autonomes qui favorisent la sécurité des conducteurs ? La question n'est pas encore tranchée, mais ce sont les types de débats éthiques qui se déroulent à mesure que se développent de nouvelles technologies innovantes dans le domaine de l'IA.

 

Impact de l'IA sur l'emploi


Alors que la perception qu'a le public de l'intelligence artificielle est souvent liée à la perte d'emploi, cette préoccupation devrait sans doute être recadrée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques change. Par exemple, dans l'industrie automobile, de nombreux fabricants, comme GM, se concentrent désormais sur la production de véhicules électriques pour s'aligner sur les projets écologiques. Le secteur de l'énergie ne disparaît pas, mais la source d'énergie passe d'une économie reposant sur l'utilisation de carburants à une économie exploitant l'électricité. L'intelligence artificielle doit être considérée de la même manière, car elle va déplacer la demande d'emplois vers d'autres domaines. Des personnes seront nécessaires pour gérer ces systèmes, car les données augmentent et changent tous les jours. Il faudra encore des ressources pour résoudre des problèmes plus complexes dans les secteurs les plus susceptibles d'être affectés par les changements sur le marché du travail, comme le centre de support. L'aspect important de l'intelligence artificielle et de son effet sur le marché de l'emploi sera d'aider les individus à faire la transition vers ces nouveaux secteurs du marché.

 

Confidentialité


On a tendance à aborder la protection de la vie privée dans le contexte de la confidentialité des données, de la protection des données et de la sécurité des données, et ces préoccupations ont permis aux décideurs politiques de connaître des avancées dans ce domaine au cours dernières années. En 2016, par exemple, la législation du RGPD a été créée pour protéger les données personnelles des citoyens de l'Union européenne et de l'Espace économique européen, donnant aux individus un plus grand contrôle sur leurs données. Aux États-Unis, certains États développent des politiques, telles que la California Consumer Privacy Act (CCPA), qui obligent les entreprises à informer les consommateurs de la collecte de leurs données. Cette législation récente a obligé les entreprises à repenser la manière dont elles stockent et utilisent les données personnelles identifiables (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer toute vulnérabilité et toute possibilité de surveillance, de piratage et de cyberattaques.

 

Préjugés et discrimination


Des cas de partialité et de discrimination dans un certain nombre de systèmes intelligents ont soulevé de nombreuses questions éthiques concernant l'utilisation de l'intelligence artificielle. Comment se protéger contre la partialité et la discrimination lorsque les données d'entraînement elles-mêmes peuvent se prêter à la partialité ? Alors que les entreprises sont généralement bien intentionnées autour de leurs efforts d'automatisation, Reuters (lien externe à IBM) souligne certaines des conséquences imprévues de l'intégration de l'IA dans les pratiques d'embauche. Dans le cadre de l'automatisation et de la simplification d'un processus, Amazon a involontairement discriminé des candidats potentiels en fonction de leur sexe pour les postes techniques ouverts, et a finalement dû abandonner le projet. Face à l'apparition des ce types d'événements, la revue Harvard Business Review (lien externe à IBM) soulève d'autres questions concernant l'utilisation de l'IA dans les pratiques d'embauche, telles que les données que vous devez être en mesure d'utiliser pour évaluer un candidat à un poste.

Les préjugés et la discrimination ne se limitent pas non plus à la fonction « ressources humaines » ; on les retrouve dans un certain nombre d'applications, des logiciels de reconnaissance faciale aux algorithmes des médias sociaux.

Plus les entreprises sont conscientes des risques liés à l'IA, plus elles sont actives dans le débat sur l'éthique et les valeurs de l'IA. L'année dernière, par exemple, le PDG d'IBM, Arvind Krishna, a fait savoir qu'IBM avait mis en suspend ses produits d'analyse et de reconnaissance faciale à usage général, soulignant qu'« IBM s'oppose fermement et ne tolèrera pas l'utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits de l'homme et des libertés fondamentales, ou à toute autre fin qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence. »

Pour en savoir plus, consultez le blog de la politique d'IBM, qui présente son point de vue sur « Une approche de réglementation de précision pour contrôler les exportations de technologies de reconnaissance faciale ».

 

Responsabilité


Comme il n'existe pas de législation significative pour réglementer les pratiques de l'IA, aucun véritable mécanisme d'application n'est en vigueur pour garantir que l'IA est pratiquée de manière éthique. Ce qui incite actuellement les entreprises à adhérer à ces directives, ce sont les répercussions négatives d'un système d'IA non éthique sur les résultats financiers. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d'une collaboration entre éthiciens et chercheurs pour régir la construction et la distribution de modèles d'IA dans la société. Cependant, pour l'instant, ces éléments ne constituent qu'un guide, et les recherches (lien externe à IBM) (PDF, 984 KB) montrent que la combinaison d'une responsabilité distribuée et d'un manque de prévoyance quant aux conséquences potentielles n'est pas nécessairement propice à la prévention des dommages pour la société.


Comment établir une éthique de l'IA

L'intelligence artificielle n'ayant pas donné naissance à des machines morales, des équipes ont commencé à assembler des cadres et des concepts pour répondre à certaines des préoccupations éthiques actuelles et façonner l'avenir du travail dans ce domaine. Bien que de nouvelles structures soient injectées chaque jour dans ces directives, il existe un certain consensus autour de l'intégration des éléments suivants :

  • Gouvernance : les entreprises peuvent tirer parti de leur structure organisationnelle existante pour faciliter la gestion de l'IA éthique. Si une entreprise collecte des données, elle a probablement déjà mis en place un système de gouvernance pour faciliter la normalisation et l'assurance qualité de ces données. Les équipes chargées du respect de la réglementaires et juridiques internes travaillent probablement déjà avec les équipes de la gouvernance pour assurer la conformité avec les entités gouvernementales. Par conséquent, l'extension du champ d'action de cette équipe pour inclure l'IA éthique est une extension naturelle de ses priorités actuelles. Cette équipe peut également gérer la sensibilisation de l'organisation et inciter les parties prenantes à agir conformément aux valeurs et aux normes éthiques de l'entreprise.  
  • Explicabilité : les modèles d'apprentissage automatique, en particulier les modèles d'apprentissage en profondeur, sont souvent appelés « modèles boîte noire », car on ne sait généralement pas comment un modèle parvient à une décision donnée. Selon cette recherche (lien externe à IBM) (PDF, 1,8 Mo), l'explicabilité cherche à éliminer cette ambiguïté autour de l'assemblage et des sorties du modèle en générant une « explication compréhensible par l'homme qui exprime le raisonnement de la machine ».  Cette entrer de transparence est importante pour le bâtiment confiance avec les systèmes d' intelligence artificielle assurer que les individus comprennent pourquoi un modèle arrive à un point de décision. Si nous pouvons mieux comprendre le pourquoi, nous serons mieux équipés pour éviter les risques liés à l'IA, tels que les préjugés et la discrimination.  

Il ne fait aucun doute que la réussite de l'IA dépendra de son caractère éthique. Cependant, il est important de noter qu'elle a un énorme potentiel pour avoir un impact positif sur la société. Nous commençons à le voir dans son intégration dans des domaines de la santé, comme la radiologie. Cette conversation sur l'éthique de l'IA vise à garantir que, dans notre tentative d'exploiter cette technologie pour le bien, nous évaluons de manière appropriée son potentiel de nuisance dans sa conception.


Organisations d'IA éthique

Les normes éthiques n'étant pas la préoccupation première des ingénieurs et spécialistes des données dans le secteur privé, un certain nombre d'organisations ont vu le jour pour promouvoir une conduite éthique dans le domaine de l'intelligence artificielle. Si vous recherchez plus d'informations, les organisations et projets suivants fournissent des ressources sur la mise en œuvre d'une IA éthique :

  • AlgorithmeWatch : cette association à but non lucratif milite pour un algorithme et un processus de décision explicables et traçables dans les programmes d'IA. Cliquez sur ici (lien externe à IBM) pour en savoir plus.
  • AI Now Institute : cette association à but non lucratif de l'université de New York effectue des recherches sur les implications sociales de l'intelligence artificielle. Cliquez sur ici (lien externe à IBM) pour en savoir plus.
  • DARPA acronyme de Defense Advanced Research Projects Agency (lien externe à IBM) du ministère américain de la défense se concentre sur la promotion de l'IA explicable et de la recherche sur l'IA.
  • CHAI acronyme de Center for Human-Compatible Artificial Intelligence (lien externe à IBM) est une coopération de divers instituts et universités pour promouvoir une IA digne de confiance et des systèmes bénéfiques prouvables.
  • NASCAI acronyme de National Security Commission on Artificial Intelligence (lien externe à IBM) est une commission indépendante « qui étudie les méthodes et les moyens nécessaires pour faire progresser le développement de l'intelligence artificielle, de l'apprentissage automatique et des technologies associées, afin de répondre de manière globale aux besoins des États-Unis dans les domaines de la sécurité nationale et de la défense. »

Le point de vue d'IBM sur l'éthique de l'IA

IBM a également établi son propre point de vue sur l'éthique de l'IA, en créant des principes de confiance et de transparence pour aider les clients à comprendre où se situent ses valeurs dans le débat sur l'IA. IBM a défini trois principes fondamentaux qui dictent son approche des données et de l'IA, à savoir :

  1. L'objectif de l'IA est d'augmenter l'intelligence humaine. Cela signifie que nous ne cherchons pas à remplacer l'intelligence humaine par l'IA, mais à la soutenir. Comme toute nouvelle innovation technologique entraîne des changements dans l'offre et la demande de certains rôles professionnels, IBM s'engage à soutenir les employés dans cette transition en investissant dans des initiatives mondiales visant à promouvoir la formation aux compétences liées à cette technologie.
  2. Les données et les informations appartiennent à leur créateur. Les clients d'IBM peuvent être assurés qu'ils sont, et eux seuls, propriétaires de leurs données. IBM n'a pas permis et ne permettra pas au gouvernement d'accéder aux données de ses clients dans le cadre de programmes de surveillance, et elle reste déterminée à protéger la vie privée de ses clients.
  3. Les systèmes d'IA doivent être transparents et explicables. IBM estime que les entreprises technologiques doivent indiquer clairement qui entraîne leurs systèmes d'IA, quelles données ont été utilisées pour cet entraînement et, surtout, ce qui a été pris en compte dans les recommandations de leurs algorithmes.

IBM a également développé un ensemble de domaines d'intérêt pour guider l'adoption responsable des technologies d'IA. Notamment :

  • Explicabilité : un système d'IA doit être transparent, notamment en ce qui concerne le contenu des recommandations de son algorithme, car il est pertinent pour diverses parties prenantes ayant des objectifs variés.
  • Équité : il s'agit du traitement équitable des individus, ou des groupes d'individus, par un système d'IA. Lorsqu'elle est correctement calibrée, l'IA peut aider les humains à faire des choix plus équitables, à contrer leurs préjugés et à promouvoir l'inclusion.
  • Robustesse : les systèmes optimisés par l'IA doivent être activement défendus contre les attaques adverses, en réduisant les risques de sécurité et en instaurant la confiance dans les résultats du système.
  • Transparence :pour renforcer la confiance, les utilisateurs doivent être en mesure de savoir comment le service fonctionne, d'évaluer sa fonctionnalité et de comprendre ses forces et ses limites.
  • Confidentialité :les systèmes d'IA doivent, en priorité, garantir la confidentialitté et les droits des consommateurs en matière de données et fournir des garanties explicites aux utilisateurs sur la manière dont leurs données personnelles seront utilisées et protégées.

Ces principes et domaines d'action constituent le fondement de notre approche de l'éthique de l'IA. Pour en savoir plus sur le point de vue d'IBM concernant l'éthique et l'intelligence artificielle, cliquez ici.

 


L'éthique de l'IA et IBM

IBM s'efforce de garantir que ses produits sont construits et utilisés dans le respect des directives et des principes éthiques. IBM propose à ses clients divers produits dont IBM Watson Studio qui améliore la surveillance et la conformité aux normes éthiques de l'IA.

IBM Watson Studio on IBM Cloud Pak for Data permet de surveiller et de gérer les modèles pour exploiter l'IA en toute confiance. Une organisation peut visualiser et suivre les modèles d'IA en production, valider et tester les modèles pour atténuer les risques réglementaires, et accroître la visibilité du cycle de vie de l'IA. Inscrivez-vous pour obtenir un IBMid et créez votre compte IBM Cloud.

Pour en savoir plus sur le point de vue d'IBM sur l'éthique de l'intelligence artificielle, lisez ici.

 


Solutions connexes

IBM Watson Studio

Créez, exécutez et gérez des modèles d'IA. Préparez les données et construisez des modèles dans n'importe quel cloud à l'aide d'un code source ouvert ou de la modélisation visuelle. Prédisez et optimisez vos résultats.


IBM Cloud Pak for Data

Cloud Pak for Data est une plateforme de données ouverte et extensible qui fournit une matrice de données pour rendre toutes les données disponibles pour l'IA et l'analytique, dans n'importe quel cloud.


Éthique de l'IA d'IBM

Approche multidisciplinaire et multidimensionnelle d'IBM pour l'éthique de l'IA