Qu'est-ce que l'éthique de l'IA ?
L'éthique de l'IA guide les scientifiques des données et les chercheurs pour qu'ils construisent des systèmes d'IA d'une manière éthique, au bénéfice de la société dans son ensemble
S'abonner au bulletin d'information d'IBM
aurore circulaire
Qu'est-ce que l'éthique de l'IA ?

Cet article vise à fournir une vue d'ensemble du marché de l'éthique de l'IA dans l'industrie d'aujourd'hui. Pour en savoir plus sur le point de vue d'IBM, consultez notre page sur l'éthique de l'IA ici.

L'éthique est un ensemble de principes moraux qui nous permettent de discerner le bien et le mal. L'éthique de l'IA est un ensemble de lignes de conduite qui donnent des conseils sur la conception et les résultats de l'intelligence artificielle. Les êtres humains ont toutes sortes de biais cognitifs, comme le biais de récence et de confirmation, et ces biais inhérents se manifestent dans nos comportements et, donc, dans nos données. Comme les données constituent le socle de tous les algorithmes de machine learning, il est important que nous structurions les expériences et les algorithmes en gardant cela à l'esprit, car l'intelligence artificielle a le potentiel d'amplifier et d'étendre ces biais humains à un rythme sans précédent.

Avec l'émergence du Big Data, les entreprises se concentrent sur l'automatisation et la prise de décision basée sur les données dans l'ensemble de leurs services. Même si l'objectif vise généralement, sinon toujours, à améliorer les résultats de l'entreprise, les entreprises subissent des conséquences imprévues dans certaines de leurs applications d'IA, notamment en raison d'une conception déficiente de la recherche initiale et de jeux de données biaisés.

Face à la révélation de cas d'iniquité, de nouvelles lignes directrices ont émergé, principalement dans les milieux de la recherche et de la science des données, pour répondre aux préoccupations concernant l'éthique de l'IA. Les grandes entreprises du secteur de l'IA ont également un intérêt direct dans l'élaboration de ces lignes directrices, car elles commencent elles-mêmes à souffrir de certaines des conséquences du non-respect des normes éthiques dans leurs produits. Le manque de rigueur dans ce domaine peut avoir des conséquences qui peuvent ternir la réputation, poser des problèmes de réglementation et exposer à des procédures judiciaires donnant lieu à des sanctions coûteuses. Comme pour toutes les avancées technologiques, l'innovation tend à dépasser la réglementation gouvernementale dans les domaines nouveaux et émergents. À mesure que l'expertise appropriée se développe au sein de l'administration, on peut s'attendre à ce que les entreprises suivent davantage de protocoles d'IA, leur permettant d'éviter toute atteinte aux droits de l'homme et aux libertés civiles.

Découvrir watsonx

Multipliez la puissance de l'IA pour votre entreprise avec la plateforme de données et d'IA de nouvelle génération d'IBM

Éthique de l'IA avancée aujourd'hui

Découvrez-en plus sur la manière dont vous mettez en pratique les principes de l'IA éthique (326 Ko)

Établir des principes pour l'éthique de l'IA

Alors que des règles et des protocoles sont élaborés pour gérer l'utilisation de l'IA, la communauté universitaire s'est appuyée sur le rapport Belmont (lien externe à IBM) (PDF de 121 Ko) pour guider l'éthique dans la recherche expérimentale et le développement algorithmique. Le rapport Belmont fait ressortir trois grands principes qui servent de ligne directrice pour les expériences et la conception d'algorithmes :

  1. Respect des personnes : ce principe reconnaît l'autonomie des personnes et attend des chercheurs qu'ils protègent les personnes dont l'autonomie est réduite, par exemple en raison d'une maladie, d'un handicap mental ou de restrictions liées à l'âge. Ce principe touche principalement à l'idée de consentement. Les individus doivent être conscients des risques et des avantages potentiels de toute expérience à laquelle ils participent, et ils doivent pouvoir choisir de participer ou de se rétracter à tout moment avant et pendant l'expérience.
  2. Humanité : ce principe s'inspire de l'éthique des soins de santé, où les médecins font le serment de « ne pas nuire ». Cette idée peut être facilement appliquée à l'intelligence artificielle, où les algorithmes peuvent amplifier les préjugés liés à la race, au sexe, aux tendances politiques, etc., malgré l'intention de faire le bien et d'améliorer un système donné.
  3. Justice : ce principe porte sur des questions telles que l'équité et l'égalité. Qui doit bénéficier des avantages de l'expérimentation et du machine learning ? Le rapport Belmont propose cinq façons de répartir les charges et les avantages :
    • Équité
    • Besoin individuel
    • Effort individuel
    • Contribution sociétale
    • Mérite
Liens connexes

Éthique de l'IA d'IBM

Principales préoccupations liées à l'IA aujourd'hui

Un certain nombre de questions sont au premier plan des conversations éthiques sur les technologies de l'IA, notamment :

 

Singularité technologique


Bien que ce sujet suscite une grande attention de la part du public, de nombreux chercheurs ne sont pas préoccupés par l'idée que l'IA surpasse l'intelligence humaine dans un avenir proche ou immédiat. On parle également de super intelligence, que Nick Bostrum définit comme « tout intellect qui surpasse largement les plus brillants cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales ». Bien que l'IA forte et la super intelligence ne soient pas imminentes dans la société, leur idée soulève des questions intéressantes lorsque nous envisageons l'utilisation de systèmes autonomes, comme les voitures autonomes. Il est irréaliste de penser qu'une voiture sans conducteur n'aura jamais d'accident de voiture. Mais qui est responsable et redevable dans ce cas ? Devons-nous continuer dans la voie des véhicules autonomes ou devons-nous limiter l'intégration de cette technologie pour créer uniquement des véhicules semi-autonomes qui favorisent la sécurité des conducteurs ? La question n'est pas encore tranchée, mais ce sont les types de débats éthiques qui se déroulent à mesure que se développent de nouvelles technologies innovantes dans le domaine de l'IA.

 

Impact de l'IA sur l'emploi


Alors que la perception qu'a le public de l'intelligence artificielle est souvent liée à la perte d'emploi, cette préoccupation devrait sans doute être recadrée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques change. Par exemple, dans l'industrie automobile, de nombreux fabricants, comme GM, se concentrent désormais sur la production de véhicules électriques pour s'aligner sur les projets écologiques. Le secteur de l'énergie ne disparaît pas, mais la source d'énergie passe d'une économie reposant sur l'utilisation de carburants à une économie exploitant l'électricité. L'intelligence artificielle doit être considérée de la même manière, car elle va déplacer la demande d'emplois vers d'autres domaines. Des personnes seront nécessaires pour gérer ces systèmes, car les données augmentent et changent tous les jours. Des ressources seront encore nécessaires pour résoudre des problèmes plus complexes dans les secteurs les plus susceptibles d'être touchés par l'évolution de la demande d'emploi, comme le service à la clientèle. Le principal enjeu de l'intelligence artificielle et de son effet sur le marché de l'emploi sera d'aider les individus à faire la transition vers ces nouveaux secteurs du marché.

 

Confidentialité


On a tendance à aborder la protection de la vie privée dans le contexte de la confidentialité des données, de la protection des données et de la sécurité des données, et ces préoccupations ont permis aux décideurs politiques de faire davantage de progrès dans ce domaine au cours des dernières années. En 2016, par exemple, le règlement général sur la protection des données (RGPD) a été créé pour protéger les données personnelles des citoyens de l'Union européenne et de l'Espace économique européen, donnant aux individus un plus grand contrôle sur leurs données. Aux États-Unis, certains États développent des politiques, telles que la California Consumer Privacy Act (CCPA), qui obligent les entreprises à informer les consommateurs de la collecte de leurs données. Cette législation récente a obligé les entreprises à repenser la manière dont elles stockent et utilisent les données personnelles identifiables (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer toute vulnérabilité et toute possibilité de surveillance, de piratage et de cyberattaques.

 

Biais et discrimination


Des cas de biais et de discrimination dans un certain nombre de systèmes intelligents ont soulevé de nombreuses questions éthiques concernant l'utilisation de l'intelligence artificielle. Comment éviter les biais et les discriminations lorsque les données d'apprentissage peuvent elles-mêmes être biaisées ? Alors que les entreprises font preuve généralement de bonnes intentions dans leurs efforts d'automatisation, Reuters (lien externe à IBM) souligne certaines des conséquences imprévues de l'intégration de l'IA dans les pratiques d'embauche. Dans le cadre de l'automatisation et de la simplification d'un processus, Amazon a involontairement discriminé des candidats potentiels en fonction de leur sexe pour les postes techniques ouverts, et a finalement dû abandonner le projet. Face à ces types de situations, la revue Harvard Business Review (lien externe à IBM) soulève d'autres questions concernant l'utilisation de l'IA dans les pratiques d'embauche, telles que les données que vous devez être en mesure d'utiliser pour évaluer un candidat à un poste.

Mais les biais et la discrimination ne se limitent pas aux ressources humaines. On les retrouve dans un certain nombre d'applications, comme les logiciels de reconnaissance faciale ou les algorithmes des médias sociaux.

Plus les entreprises sont conscientes des risques liés à l'IA, plus elles sont actives dans le débat sur l'éthique et les valeurs de l'IA. L'année dernière, par exemple, le PDG d'IBM, Arvind Krishna, a fait savoir qu'IBM avait mis en suspend ses produits d'analyse et de reconnaissance faciale à usage général, soulignant qu'« IBM s'oppose fermement à l'utilisation de toute technologie et ne la tolérera pas, y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits de l'homme et des libertés fondamentales, ou à toute autre fin qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence ».

Responsabilité


Comme aucune législation particulière ne régit les pratiques d'IA, il n'existe pas de véritable mécanisme d'application pour garantir une pratique éthique de l'IA. Les entreprises sont actuellement incitées à adhérer à ces lignes directrices en raison des répercussions négatives d'un système d'IA non éthique sur leurs résultats. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d'une collaboration entre éthiciens et chercheurs pour régir la construction et la distribution de modèles d'IA dans la société. Cependant, pour l'instant, ils ne constituent qu'une orientation, et la recherche (lien externe à IBM) (PDF de 1 Mo) montre que le fait de répartir les responsabilités et de ne pas anticiper les conséquences potentielles n'est pas nécessairement propice à la prévention des dommages causés à la société.

Comment établir une éthique de l'IA

L'intelligence artificielle n'ayant pas créé des machines dotées d'une morale, des équipes ont commencé à assembler des cadres et des concepts pour répondre à certaines des préoccupations éthiques actuelles et façonner l'avenir du travail dans ce domaine. Bien que de nouvelles structures soient injectées chaque jour dans ces directives, il existe un certain consensus autour de l'intégration des éléments suivants :

  • Gouvernance : les entreprises peuvent tirer parti de leur structure organisationnelle existante pour faciliter la gestion de l'IA éthique. Si une entreprise collecte des données, elle a probablement déjà mis en place un système de gouvernance pour faciliter la normalisation et l'assurance qualité de ces données. Les équipes internes chargées du respect des réglementations et des questions juridiques travaillent probablement déjà avec les équipes de la gouvernance pour assurer la conformité avec les entités gouvernementales. Par conséquent, l'extension du champ d'action de cette équipe pour inclure l'IA éthique est une extension naturelle de ses priorités actuelles. Cette équipe peut également veiller à sensibiliser l'organisation et inciter les parties prenantes à agir conformément aux valeurs et aux normes éthiques de l'entreprise.  
  • Explicabilité : les modèles de machine learning, en particulier les modèles d'apprentissage en profondeur, sont souvent appelés « modèles boîte noire », car on ne sait généralement pas comment un modèle parvient à une décision donnée. Selon cette recherche (lien externe à IBM) (PDF de 1,8 Mo), l'explicabilité cherche à éliminer cette ambiguïté autour de l'assemblage et des sorties du modèle en offrant « une explication compréhensible par l'homme qui exprime le raisonnement de la machine ».  Ce type de transparence est important pour établir la confiance dans les systèmes d'IA et faire en sorte que les personnes comprennent pourquoi un modèle arrive à un point de décision donné. Si nous pouvons mieux comprendre le pourquoi, nous serons plus à même d'éviter les risques liés à l'IA, tels que les biais et la discrimination.  

Il ne fait aucun doute que le succès de l'IA dépendra de son caractère éthique. Cependant, il est important de noter que son potentiel pour influencer positivement la société est énorme. Nous commençons à le voir dans son intégration dans des domaines de la santé, comme la radiologie. Ce débat sur l'éthique de l'IA vise à garantir que, dans notre tentative d'exploiter cette technologie pour le bien, les risques potentiels qu'elle présente soient évalués de manière appropriée lors de sa conception.

Organisations d'IA éthique

Les normes éthiques n'étant pas la préoccupation première des ingénieurs et spécialistes des données dans le secteur privé, un certain nombre d'organisations ont vu le jour pour promouvoir une conduite éthique dans le domaine de l'intelligence artificielle. Si vous recherchez plus d'informations, les organisations et projets suivants fournissent des ressources sur la mise en œuvre d'une IA éthique :

  • AlgorithmWatch : cette association à but non lucratif est centrée sur un algorithme et un processus de décision explicables et traçables dans les programmes d'IA. Cliquez ici (lien externe à IBM) pour en savoir plus.
  • AI Now Institute : cette association à but non lucratif de l'université de New York effectue des recherches sur les implications sociales de l'intelligence artificielle. Cliquez ici (lien externe à IBM) pour en savoir plus.
  • DARPA : acronyme de Defense Advanced Research Projects Agency (lien externe à IBM), cette agence du ministère américain de la défense promeut l'IA explicable et la recherche sur l'IA.
  • CHAI : acronyme de Center for Human-Compatible Artificial Intelligence (lien externe à IBM), ce centre est une coopération de divers instituts et universités, qui promeut une IA digne de confiance et des systèmes bénéfiques prouvables.
  • NASCAI : acronyme de National Security Commission on Artificial Intelligence (lien externe à IBM), cette commission indépendante « étudie les méthodes et les moyens nécessaires pour faire progresser le développement de l'intelligence artificielle, du machine learning et des technologies associées, afin de répondre de manière globale aux besoins des États-Unis dans les domaines de la sécurité nationale et de la défense ».
Le point de vue d'IBM sur l'éthique de l'IA

IBM a également établi son propre point de vue sur l'éthique de l'IA, en créant des principes de confiance et de transparence pour aider les clients à comprendre où se situent ses valeurs dans le débat sur l'IA. IBM a défini trois principes fondamentaux qui dictent son approche des données et de l'IA, à savoir :

  1. L'objectif de l'IA est d'augmenter l'intelligence humaine. Cela signifie que nous ne cherchons pas à remplacer l'intelligence humaine par l'IA, mais à la soutenir. Comme toute nouvelle innovation technologique entraîne des changements dans l'offre et la demande de certains rôles professionnels, IBM s'engage à soutenir les employés dans cette transition en investissant dans des initiatives mondiales visant à promouvoir la formation aux compétences liées à cette technologie.
  2. Les données et les informations appartiennent à leur créateur. Les clients d'IBM peuvent être assurés qu'ils sont, et eux seuls, propriétaires de leurs données. IBM n'a pas permis et ne permettra pas au gouvernement d'accéder aux données de ses clients dans le cadre de programmes de surveillance, et elle reste déterminée à protéger leur confidentialité.
  3. Les systèmes d'IA doivent être transparents et explicables. Pour IBM, les entreprises technologiques doivent indiquer clairement qui entraîne leurs systèmes d'IA, quelles données ont été utilisées pour cet entraînement et, surtout, ce qui a été pris en compte dans les recommandations de leurs algorithmes.

IBM a également développé un ensemble de domaines d'intérêt pour guider l'adoption responsable des technologies d'IA, à savoir :

  • Explicabilité : un système d'IA doit être transparent, notamment en ce qui concerne le contenu des recommandations de son algorithme, par rapport à diverses parties prenantes ayant des objectifs variés.
  • Équité : il s'agit du traitement équitable des individus, ou des groupes d'individus, par un système d'IA. Lorsqu'elle est correctement calibrée, l'IA peut aider les individus à faire des choix plus équitables, à contrer leurs préjugés et à promouvoir l'inclusion.
  • Robustesse : les systèmes optimisés par l'IA doivent être activement défendus contre les attaques adverses, en réduisant les risques de sécurité et en instaurant la confiance dans les résultats du système.
  • Transparence : pour renforcer la confiance, les utilisateurs doivent être en mesure de savoir comment le service fonctionne, d'évaluer sa fonctionnalité et de comprendre ses forces et ses limites.
  • Confidentialité : les systèmes d'IA doivent, en priorité, garantir la confidentialité et les droits des consommateurs en matière de données et fournir des garanties explicites aux utilisateurs sur la manière dont leurs données personnelles seront utilisées et protégées.

Ces principes et domaines d'action constituent le fondement de notre approche de l'éthique de l'IA. Cliquez ici pour en savoir plus sur le point de vue d'IBM sur l'éthique et l'intelligence artificielle.

 

L'éthique de l'IA et IBM

IBM s'efforce de garantir que ses produits sont construits et utilisés dans le respect des directives et des principes éthiques. IBM propose à ses clients divers produits, dont IBM Watson Studio, qui améliorent la surveillance et la conformité aux normes éthiques de l'IA.

IBM Watson Studio on IBM Cloud Pak for Data permet de surveiller et de gérer les modèles pour exploiter l'IA en toute confiance. Une organisation peut visualiser et suivre les modèles d'IA en production, valider et tester les modèles pour atténuer les risques liés aux réglementations et accroître la visibilité du cycle de vie de l'IA. Inscrivez-vous dès aujourd'hui pour obtenir un IBMid et créer votre compte IBM Cloud.

Cliquez ici pour en savoir plus sur le point de vue d'IBM sur l'éthique de l'intelligence artificielle.

 

Solutions connexes
IBM Watson Studio

Créez, exécutez et gérez des modèles d’intelligence artificielle. Préparez les données et créez des modèles sur n’importe quel cloud à l’aide d’un code source ouvert ou d’une modélisation visuelle. Prévoyez et optimisez vos résultats.

Explorer Watson Studio
IBM Cloud Pak® for Data

Cloud Pak for Data est une plateforme de données ouverte et extensible qui fournit une data fabric pour rendre toutes les données disponibles pour l'IA et l'analyse, dans n'importe quel cloud.

Explorer IBM Cloud Pak® for Data
Éthique de l'IA d'IBM

Approche multidisciplinaire et multidimensionnelle d'IBM pour l'éthique de l'IA

Explorer l'éthique de l'IA d'IBM
Pour aller plus loin

IBM s'efforce de garantir que ses produits sont construits et utilisés dans le respect des directives et des principes éthiques. IBM propose à ses clients divers produits, dont IBM Watson Studio, qui améliorent la surveillance et la conformité aux normes éthiques de l'IA. IBM Watson Studio on IBM Cloud Pak for Data permet de surveiller et de gérer les modèles pour exploiter l'IA en toute confiance. Une organisation peut visualiser et suivre les modèles d'IA en production, valider et tester les modèles pour atténuer les risques liés aux réglementations et accroître la visibilité du cycle de vie de l'IA.

En savoir plus sur IBM Watson Studio