Accueil

Thèmes

Éthique de l’IA

Qu’est-ce que l’éthique de l’IA ?
Découvrez la solution éthique d’IBM en matière d’IA S’inscrire pour recevoir les dernières informations sur l’IA
Illustration avec collage de pictogrammes de nuages, graphique circulaire et pictogrammes graphiques
Qu’est-ce que l’éthique de l’IA ?

L'éthique est un ensemble de principes moraux qui nous aident à discerner le bien du mal. L’éthique de l’IA est un domaine pluridisciplinaire qui étudie comment optimiser l’impact bénéfique de l’IA tout en réduisant ses risques et ses effets indésirables.

Les exemples de problèmes éthiques liés à l'IA incluent la responsabilité et la confidentialité des données, l'équité, l'explicabilité, la robustesse, la transparence, la durabilité environnementale, l'inclusion, le libre arbitre, l'alignement des valeurs, la responsabilité, la confiance et l'utilisation abusive des technologies. Cet article vise à fournir une vue d'ensemble de l'éthique de l'IA dans le secteur moderne. Pour en savoir plus sur le point de vue d'IBM, consultez notre page sur l'éthique de l'IA ici.

Avec l’émergence du big data, les entreprises se concentrent davantage sur l’automatisation et la prise de décision fondée sur les données au sein de leur organisation. Bien que l’intention soit généralement, sinon toujours, d’améliorer les résultats commerciaux, les entreprises subissent des conséquences imprévues dans certaines de leurs applications d’IA, notamment en raison d’une mauvaise conception de la recherche initiale et de jeux de données biaisés.

À mesure que des cas de résultats abusifs ont été révélés, de nouvelles lignes directrices ont vu le jour, principalement dans les milieux de la recherche et de la science des données, pour répondre aux préoccupations concernant l'éthique de l'IA. Les entreprises leaders dans le domaine de l'IA ont également un intérêt direct dans l'élaboration de ces lignes directrices, car elles ont elles-mêmes commencé à subir certaines des conséquences d'un manque de respect des normes éthiques dans le cadre de leurs produits. Le manque de diligence dans ce domaine peut nuire à la réputation, aux réglementations et aux affaires juridiques, ce qui entraîne des sanctions coûteuses. Comme pour toutes les avancées technologiques, l'innovation a tendance à devancer la réglementation gouvernementale dans les nouveaux domaines émergents. À mesure que l'expertise appropriée se développe au sein du secteur public, on peut s'attendre à ce que les entreprises adoptent davantage de protocoles d'IA, ce qui leur permettra d'éviter toute violation des droits humains et des libertés civiles.

Disponible dès maintenant : watsonx.governance

Accélérez la mise en place de workflows responsables, transparents et explicables pour l’IA générative basée sur des plateformes tierces.

Contenu connexe
eBook
Obtenir l’eBook sur les entrepôts de données pour l’IA
Guide
Découvrez comment exploiter les bases de données adéquates pour les applications, les analyses et l’IA générative
Établir des principes pour l’éthique de l’IA

Alors que des règles et des protocoles se développent pour gérer l’utilisation de l’IA, la communauté universitaire a utilisé le rapport Belmont (lien externe à ibm.com) pour ne pas perdre de vue l’éthique dans la recherche expérimentale et le développement algorithmique. Trois grands principes sont ressortis du rapport Belmont et servent de guide pour la conception d’expériences et d’algorithmes :

  1. Respect des personnes : ce principe reconnaît l’autonomie des individus et permet aux chercheurs de protéger les personnes dont l’autonomie est réduite, ce qui peut être dû à diverses circonstances telles que la maladie, un handicap mental, des restrictions d’âge. Ce principe touche principalement l'idée de consentement. Les personnes doivent être conscientes des risques et des avantages potentiels de toute expérience à laquelle elles participent, et elles doivent pouvoir choisir de participer ou de s’en retirer à tout moment avant et pendant l’expérience.
  2. Bienveillance : ce principe sort du cadre de l’éthique des soins de santé, où les médecins prêtent serment de « ne pas nuire ». Cette idée peut être facilement appliquée à l’intelligence artificielle, où les algorithmes peuvent amplifier les préjugés liés à la race, au genre, aux opinions politiques, etc., malgré l’intention de faire le bien et d’améliorer un système donné.
  3. Justice : ce principe traite de questions telles que l’équité et l’égalité. Qui doit profiter des avantages de l’expérimentation et du machine learning ? Le rapport Belmont propose cinq façons de répartir les charges et les avantages :
    • Partage équitable
    • Besoin individuel
    • Effort individuel
    • Contribution sociétale
    • Mérite
Liens connexes IBM AI Ethics Cinq étapes pour mettre en œuvre des pratiques de sécurité algorithmique
Les principales préoccupations de l’IA moderne

Un certain nombre de questions sont au premier plan des conversations éthiques concernant les technologies d'IA dans le monde réel. En voici quelques-unes :

Modèles de fondation et IA générative

La sortie de ChatGPT en 2022 a marqué un véritable tournant pour l’intelligence artificielle. Les capacités du chatbot d’OpenAI, qui vont de la rédaction de dossiers juridiques au débogage de code, ont ouvert une nouvelle constellation de possibilités concernant ce que l’IA peut faire et la façon dont elle peut être appliquée dans presque tous les secteurs. ChatGPT et des outils similaires sont construits sur des modèles de fondation, des modèles d’IA qui peuvent être adaptés à un large éventail de tâches en aval. Les modèles de fondation sont généralement des modèles génératifs à grande échelle, composés de milliards de paramètres, qui sont entraînés sur des données non étiquetées à l’aide de l’auto-supervision. Ceci permet aux modèles de fondation d’appliquer rapidement ce qu’ils ont appris dans un contexte à un autre contexte, ce qui les rend très adaptables et capables d’effectuer une grande variété de tâches. Pourtant, les modèles de fondation peuvent poser de nombreux problèmes et préoccupations éthiques, qui sont communément admis dans le secteur des technologies : biais, génération de faux contenus, absence d’explicabilité, utilisation abusive et impact sociétal. Bon nombre de ces questions concernent l’IA en général, mais deviennent urgentes compte tenu de la puissance et de la disponibilité des modèles de fondation.

Singularité technologique

Bien que ce sujet suscite beaucoup d’attention chez le public, de nombreux chercheurs ne pensent pas que l’IA puisse surpasser l’intelligence humaine dans un avenir proche. On parle également de superintelligence, que Nick Bostrum définit comme « toute intelligence qui surpasse largement les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse en général et les compétences sociales ». Bien que l’IA forte et la superintelligence ne soient pas imminentes dans notre société, leur idée soulève des questions intéressantes lorsque nous envisageons l’utilisation de systèmes autonomes, comme les voitures sans conducteur. Il est irréaliste de penser qu’une voiture sans conducteur n’aura jamais d’accident, mais à qui incombe la responsabilité s’il devait se produire ? Devons-nous tenter de mettre au point des voitures sans conducteur, ou devons-nous limiter l’intégration de cette technologie pour créer uniquement des véhicules semi-autonomes qui favorisent la sécurité des conducteurs ? Cette question fait toujours l’objet de débats, mais il s’agit là de débats éthiques qui se produisent inévitablement au fur et à mesure que de nouvelles technologies d’IA innovantes se développent.

Impact de l’IA sur les emplois

Bien que la perception de l’intelligence artificielle dans le public soit largement axée sur les pertes d’emplois, cette préoccupation devrait probablement être reformulée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques évolue. Par exemple, dans l’industrie automobile, de nombreux fabricants, comme GM, se concentrent sur la production de véhicules électriques pour s’aligner sur les initiatives écologiques. Le secteur de l’énergie ne disparaît pas, mais la source d’énergie passe d’une économie de carburant à une source d’énergie électrique. L’intelligence artificielle devrait être considérée de la même manière, où l’intelligence artificielle déplacera la demande d’emplois vers d’autres domaines. Il faudra être à même de gérer ces systèmes à mesure que les données augmentent et évoluent chaque jour. Dans les secteurs les plus susceptibles d’être touchés par l’évolution de la demande d’emploi, comme le service client, il faudra encore des ressources capables de résoudre des problèmes plus complexes. L'aspect important de l'intelligence artificielle et de son effet sur le marché du travail sera d’aider les gens à s’adapter aux nouveaux rôles qui sont en demande.

Confidentialité

La confidentialité a tendance à être abordée dans le contexte de la confidentialité, de la protection et de la sécurité des données, et ces préoccupations ont permis aux décideurs politiques de faire de nouveaux progrès à cet égard ces dernières années. Par exemple, en 2016, la législation RGPD a été créée pour protéger les données personnelles des personnes de l’Union européenne et de l’Espace économique européen, donnant aux individus plus de contrôle sur leurs données. Aux États-Unis, les États ont élaboré des politiques, comme la loi sur la protection des données personnelles du consommateur en Californie (CCPA), qui oblige les entreprises à informer les consommateurs de la collecte de leurs données. Cette récente législation a obligé les entreprises à repenser la manière dont elles stockent et utilisent les données personnelles (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer les vulnérabilités et les possibilités de surveillance, de piratage et de cyberattaques.

Préjugés et discrimination

Les cas de préjugés et de discrimination dans un certain nombre de systèmes intelligents ont soulevé de nombreuses questions éthiques concernant l’utilisation de l’intelligence artificielle. Comment pouvons-nous nous prémunir contre les préjugés et la discrimination alors que les jeux de données d'entraînement peuvent être biaisés ? Bien que les entreprises aient généralement des bonnes intentions concernant leurs efforts d’automatisation, l’intégration de l’IA dans les pratiques de recrutement peut avoir des conséquences imprévues. Dans son effort pour automatiser et simplifier un processus, Amazon a involontairement biaisé les candidats potentiels (lien externe à ibm.com) en fonction de leur sexe pour les postes techniques à pourvoir, et a finalement dû abandonner le projet. Alors que de tels événements font surface, la Harvard Business Review (lien externe à ibm.com) a soulevé d’autres questions pointues sur l’utilisation de l’IA dans les pratiques de recrutement, telles que les données que vous devriez pouvoir utiliser lors de l’évaluation d’un candidat pour un poste.

Les préjugés et la discrimination ne se limitent pas non plus à la fonction des ressources humaines. On les trouve dans de nombreuses applications, des logiciels de reconnaissance faciale aux algorithmes de réseaux sociaux.

De plus en plus conscientes des risques liés à l’IA, les entreprises sont également plus actives dans le débat sur l’éthique et les valeurs de l’IA. Par exemple, l’année dernière, le PDG d’IBM, Arvind Krishna, a indiqué qu’IBM avait mis un frein au développement de ses produits d’analyse et de reconnaissance faciale à usage général, soulignant qu’« IBM s’oppose fermement à l’utilisation de toute technologie, notamment la technologie de reconnaissance faciale proposée par d’autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits de l’homme et des libertés fondamentales, ou à toute autre fin qui n’est pas conforme à nos valeurs et à nos principes de confiance et de transparence ».

Responsabilité

Il n’existe pas de législation universelle et globale qui réglemente les pratiques d’IA, mais de nombreux pays et États s’efforcent de les développer et de les mettre en œuvre au niveau local. Certains éléments de la réglementation de l’IA sont en place aujourd’hui, et de nombreux autres sont à venir. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d’une collaboration entre spécialistes de l’éthique et chercheurs afin de régir le développement et la distribution de modèles IA dans la société. Cependant, pour le moment, ils ne servent que de guide, et la recherche (lien externe à ibm.com) montre que la combinaison d'une responsabilité répartie et d'un manque de prévoyance quant aux conséquences potentielles n'est pas nécessairement propice à la prévention des dommages causés à la société.

Comment établir une éthique pour l'IA

L’intelligence artificielle fonctionne selon la façon dont elle est conçue, développée, formée, réglée et utilisée, et l’éthique de l’IA consiste à établir un écosystème de normes éthiques et de garde-fous tout au long de toutes les phases du cycle de vie d’un système d’IA.

Les organisations, les gouvernements et les chercheurs ont commencé à élaborer des cadres pour répondre aux préoccupations éthiques actuelles en matière d’IA et façonner l’avenir du travail dans ce domaine. Bien que davantage de structure soit intégrée dans ces lignes directrices chaque jour, il existe un certain consensus autour de l'intégration des éléments suivants :

Gouvernance

La gouvernance est l'action d'une organisation qui supervise le cycle de vie de l'IA par le biais de politiques et de processus internes, de personnel et de systèmes. La gouvernance permet de garantir que les systèmes d’IA fonctionnent conformément aux principes et aux valeurs d’une organisation, comme le prévoient les parties prenantes et comme l’exige la réglementation en vigueur. Un programme de gouvernance réussi :

  • définir les rôles et les responsabilités des personnes travaillant avec l’IA.

  • sensibilise toutes les personnes impliquées dans le cycle de vie de l’IA pour le développement d'une IA responsable.

  • établit des processus de création, de gestion, de surveillance et de communication sur l’IA et les risques liés à l’IA

  • tire parti d’outils pour améliorer les performances et la fiabilité de l’IA tout au long de son cycle de vie.

Un comité d’éthique de l’IA est un mécanisme de gouvernance particulièrement efficace. Chez IBM, le comité d’éthique de l’IA est composé d’un panel de dirigeants issus de l’ensemble de l’entreprise. Il élabore un processus centralisé de gouvernance, d’examen et de prise de décision pour les politiques et les pratiques d’IBM relevant de l’éthique. En savoir plus sur le Comité d’éthique de l’IA d’IBM.

Principes et domaines d'action

L’approche d’une organisation en matière d’éthique de l’IA peut être guidée par des principes qui peuvent être appliqués aux produits, aux politiques, aux processus et aux pratiques dans toute l’organisation pour contribuer à une IA digne de confiance. Ces principes doivent être structurés et soutenus par certaines priorités, comme l’explicabilité ou l’équité, autour desquels des normes peuvent être élaborées et des pratiques peuvent être alignées.

Lorsque l'IA est conçue dans le respect de l'éthique, elle est capable d'avoir un impact positif sur la société. Nous avons commencé à le constater en l'intégrant dans des domaines des soins de santé tels que la radiologie. Le débat sur l'éthique de l'IA est également important pour évaluer et atténuer de manière appropriée les risques éventuels liés à l'utilisation de l'IA, dès la phase de conception.

Organisations qui favorisent l'éthique de l'IA

Étant donné que les normes éthiques ne sont pas la principale préoccupation des ingénieurs et des data scientists du secteur privé, un certain nombre d'organisations ont vu le jour pour promouvoir une conduite éthique dans le domaine de l'intelligence artificielle. Pour ceux qui souhaitent plus d'informations, les organisations et projets suivants fournissent des ressources pour mettre en œuvre l'éthique de l'IA :

  • AlgorithmWatch: cette organisation à but non lucratif se concentre sur un algorithme explicable et traçable et sur un processus de décision dans les programmes d'IA. Cliquez ici (lien externe à ibm.com) pour en savoir plus.
  • AI Now Institute : cette organisation à but non lucratif de l’Université de New York étudie les implications sociales de l’intelligence artificielle. Cliquez ici (lien externe à ibm.com) pour en savoir plus.
  • DARPA : la Defense Advanced Research Projects Agency (lien externe à ibm.com) du département de la Défense américain se concentre sur la promotion de l’IA explicable et de la recherche sur l’IA.
  • CHAI : le Center for Human-Compatible Artificial Intelligence (lien externe à ibm.com) est une coopération de divers instituts et universités visant à promouvoir une IA digne de confiance et des systèmes bénéfiques prouvables.
  • NASCAI : la National Security Commission on Artificial Intelligence (lien externe à ibm.com) est une commission indépendante « qui examine les méthodes et les moyens nécessaires pour faire progresser le développement de l’intelligence artificielle, du machine learning et des technologies associées afin de répondre de manière exhaustive aux besoins de sécurité nationale et de défense des États-Unis ».
Le point de vue d'IBM sur l'éthique de l'IA

IBM a également établi son propre point de vue sur l’éthique de l’IA, en créant des principes de confiance et de transparence pour aider les clients à comprendre où se situent ses valeurs dans le débat autour de l’IA. IBM a trois principes fondamentaux qui dictent son approche du développement des données et de l’IA, à savoir :

  1. L'objectif de l'IA est d'enrichir l'intelligence humaine. Cela signifie que nous ne cherchons pas à remplacer l’intelligence humaine par l’IA, mais à la seconder. Étant donné que chaque nouvelle innovation technologique implique des changements dans l’offre et la demande de postes particuliers, IBM s’engage à soutenir les travailleurs dans cette transition en investissant dans des initiatives mondiales visant à promouvoir la formation professionnelle autour de cette technologie.
  2. Les données et les analyses appartiennent à leur créateur. Les clients d’IBM ont la garantie qu’eux seuls sont propriétaires de leurs données. IBM s’engage à ne jamais fournir au gouvernement un accès aux données de ses clients pour des programmes de surveillance et reste déterminé à protéger leur confidentialité.
  3. Les systèmes d’IA doivent être transparents et explicables. IBM estime que les entreprises technologiques doivent savoir clairement qui forme leurs systèmes d’IA, quelles données ont été utilisées dans cet entraînement et, surtout, ce qui a été inclus dans les recommandations de leurs algorithmes.

IBM a également développé cinq piliers pour guider l’adoption responsable des technologies d’IA. Notamment :

  • L'explicabilité : un système d'IA doit être transparent, en particulier sur ce qui est entré dans les recommandations de son algorithme, en rapport avec une variété de parties prenantes ayant divers objectifs.
  • L'équité : il s’agit du traitement équitable des individus ou des groupes d’individus par un système d’IA. Lorsqu’elle est correctement calibrée, l’IA peut aider les humains à faire des choix plus équitables, à contrer les préjugés humains et à promouvoir l’inclusion.
  • La fiabilité : les systèmes alimentés par l’IA doivent être activement défendus contre les attaques adverses, ce qui minimise les risques de sécurité et permet de se fier aux résultats du système.
  • La transparence : pour renforcer la confiance, les utilisateurs doivent être en mesure de voir comment le service fonctionne, d'évaluer ses fonctionnalités et de comprendre ses forces et ses limites.
  • La confidentialité : les systèmes d’IA doivent donner la priorité à la confidentialité et aux droits des consommateurs et les protéger, et fournir des garanties explicites aux utilisateurs quant à la manière dont leurs données personnelles seront utilisées et protégées.

Ces principes et ces domaines d’intérêt constituent le fondement de notre approche de l’éthique de l’IA. Pour en savoir plus sur le point de vue d’IBM sur l’éthique et l’intelligence artificielle, cliquez ici.

 

Solutions connexes
Éthique de l’IA chez IBM

L’approche pluridisciplinaire et multidimensionnelle d’IBM pour une IA digne de confiance

Découvrir l'éthique de l'IA chez IBM
IBM Watson Studio

Créez, exécutez et gérez des modèles d’IA. Préparez les données et créez des modèles sur n’importe quel cloud à l’aide d’un code open source ou de la modélisation visuelle. Faites des prédictions et optimisez vos résultats.

Découvrir Watson Studio
IBM watsonx.governance

Créez des workflows d’IA responsables, transparents et explicables.

Découvrir IBM watsonx.governance
Passez à l’étape suivante

Accélérez la mise en place de workflows d’IA responsables, transparents et explicables tout au long du cycle de vie pour les modèles d’IA générative et de machine learning. Dirigez, gérez et surveillez les activités d’IA de votre organisation pour mieux vous adapter aux réglementations de plus en plus nombreuses en matière d’IA, et détecter et atténuer les risques plus efficacement.

Découvrez watsonx.governance Réserver une démo en direct