Découvrez l'éthique de l'IA, un cadre qui guide les spécialistes des données et les chercheurs pour construire des systèmes d'IA de manière éthique qui bénéficient à la société tout entière.
Cet article offre une vision globale du marché de l'éthique de l'IA dans l'industrie aujourd'hui. Pour en savoir plus sur le point de vue d'IBM, consultez notre page sur l'éthique de l'IA ici.
Découvrez-en plus sur la manière dont vous mettez en pratique les principes de l'éthique de l'IA. (318 Ko)
L'éthique est un ensemble de principes moraux qui nous permettent discerner le bien et le mal. L'éthique de l'IA est un ensemble de lignes de conduite qui donnent des conseils sur la conception et les résultats de l'intelligence artificielle. Les êtres humains ont toutes sortes de biais cognitifs, comme le biais de récence et de confirmation, et ces biais inhérents se manifestent dans nos comportements et, donc, dans nos données. Comme les données constituent le socle de tous les algorithmes d'apprentissage automatique, il est important que nous structurions les expériences et les algorithmes en gardant cela à l'esprit, car l'intelligence artificielle a le potentiel d'amplifier et d'étendre ces biais humains à un rythme sans précédent.
Avec l'émergence du Big Data, les entreprises se concentrent sur l'automatisation et la prise de décision basée sur les données dans l'ensemble de leurs services. Même si l'objectif vise généralement, sinon toujours, à améliorer les résultats de l'entreprise, les entreprises subissent des conséquences imprévues dans certaines de leurs applications d'IA, notamment en raison d'une conception déficiente de la recherche initiale et de jeux de données biaisés.
Face à la révélation de cas d'iniquité, de nouvelles lignes directrices ont émergé, principalement de la part des milieux de la recherche et de la science des données, pour répondre aux préoccupations concernant l’éthique de l’IA. Les grandes entreprises du secteur de l'IA ont également un intérêt direct dans l'élaboration de ces lignes directrices, car elles commencent elles-mêmes à souffrir de certaines des conséquences du non-respect des normes éthiques dans leurs produits. Le manque de rigueur dans ce domaine peut avoir des conséquences qui peuvent ternir la réputation, poser des problèmes de réglementation et exposer à des procédures judiciaires donnant lieu à des sanctions coûteuses. Comme pour toutes les avancées technologiques, l'innovation tend à dépasser la réglementation gouvernementale dans les domaines nouveaux et émergents. À mesure que l'expertise appropriée se développe au sein de l'administration, on peut s'attendre à ce que les entreprises suivent davantage de protocoles d'IA, leur permettant d'éviter toute atteinte aux droits de l'homme et aux libertés civiles.
IBM Cloud Pak for Data
Watson Studio
Alors que des règles et des protocoles sont élaborés pour gérer l'utilisation de l'IA, la communauté universitaire s'est appuyée sur le rapport Belmont (lien externe à IBM) (PDF, 121 Ko) pour guider l'éthique dans la recherche expérimentale et le développement algorithmique. Le rapport Belmont fait ressortir trois grands principes qui servent de ligne directrice pour les expériences et la conception d'algorithmes :
Éthique de l'IA IBM
Un certain nombre de questions sont au premier plan des conversations éthiques entourant les technologies de l'IA. Notamment :
Bien que ce sujet suscite une grande attention de la part du public, de nombreux chercheurs ne sont pas préoccupés par l'idée que l'IA surpasse l'intelligence humaine dans un avenir proche ou immédiat. On parle également de superintelligence, que Nick Bostrum définit comme « tout intellect qui surpasse largement les plus brillants cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales ». Bien que l'IA forte et la superintelligence ne soient pas imminentes dans la société, leur idée soulève des questions intéressantes lorsque nous envisageons l'utilisation de systèmes autonomes, comme les voitures autonomes. Il est irréaliste de penser qu'une voiture sans conducteur n'aura jamais d'accident de voiture. Mais qui est responsable et redevable dans ce cas ? Devons-nous continuer dans la voie des véhicules autonomes ou devons-nous limiter l'intégration de cette technologie pour créer uniquement des véhicules semi-autonomes qui favorisent la sécurité des conducteurs ? La question n'est pas encore tranchée, mais ce sont les types de débats éthiques qui se déroulent à mesure que se développent de nouvelles technologies innovantes dans le domaine de l'IA.
Alors que la perception qu'a le public de l'intelligence artificielle est souvent liée à la perte d'emploi, cette préoccupation devrait sans doute être recadrée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques change. Par exemple, dans l'industrie automobile, de nombreux fabricants, comme GM, se concentrent désormais sur la production de véhicules électriques pour s'aligner sur les projets écologiques. Le secteur de l'énergie ne disparaît pas, mais la source d'énergie passe d'une économie reposant sur l'utilisation de carburants à une économie exploitant l'électricité. L'intelligence artificielle doit être considérée de la même manière, car elle va déplacer la demande d'emplois vers d'autres domaines. Des personnes seront nécessaires pour gérer ces systèmes, car les données augmentent et changent tous les jours. Il faudra encore des ressources pour résoudre des problèmes plus complexes dans les secteurs les plus susceptibles d'être affectés par les changements sur le marché du travail, comme le centre de support. L'aspect important de l'intelligence artificielle et de son effet sur le marché de l'emploi sera d'aider les individus à faire la transition vers ces nouveaux secteurs du marché.
On a tendance à aborder la protection de la vie privée dans le contexte de la confidentialité des données, de la protection des données et de la sécurité des données, et ces préoccupations ont permis aux décideurs politiques de connaître des avancées dans ce domaine au cours dernières années. En 2016, par exemple, la législation du RGPD a été créée pour protéger les données personnelles des citoyens de l'Union européenne et de l'Espace économique européen, donnant aux individus un plus grand contrôle sur leurs données. Aux États-Unis, certains États développent des politiques, telles que la California Consumer Privacy Act (CCPA), qui obligent les entreprises à informer les consommateurs de la collecte de leurs données. Cette législation récente a obligé les entreprises à repenser la manière dont elles stockent et utilisent les données personnelles identifiables (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer toute vulnérabilité et toute possibilité de surveillance, de piratage et de cyberattaques.
Des cas de partialité et de discrimination dans un certain nombre de systèmes intelligents ont soulevé de nombreuses questions éthiques concernant l'utilisation de l'intelligence artificielle. Comment se protéger contre la partialité et la discrimination lorsque les données d'entraînement elles-mêmes peuvent se prêter à la partialité ? Alors que les entreprises sont généralement bien intentionnées autour de leurs efforts d'automatisation, Reuters (lien externe à IBM) souligne certaines des conséquences imprévues de l'intégration de l'IA dans les pratiques d'embauche. Dans le cadre de l'automatisation et de la simplification d'un processus, Amazon a involontairement discriminé des candidats potentiels en fonction de leur sexe pour les postes techniques ouverts, et a finalement dû abandonner le projet. Face à l'apparition des ce types d'événements, la revue Harvard Business Review (lien externe à IBM) soulève d'autres questions concernant l'utilisation de l'IA dans les pratiques d'embauche, telles que les données que vous devez être en mesure d'utiliser pour évaluer un candidat à un poste.
Les préjugés et la discrimination ne se limitent pas non plus à la fonction « ressources humaines » ; on les retrouve dans un certain nombre d'applications, des logiciels de reconnaissance faciale aux algorithmes des médias sociaux.
Plus les entreprises sont conscientes des risques liés à l'IA, plus elles sont actives dans le débat sur l'éthique et les valeurs de l'IA. L'année dernière, par exemple, le PDG d'IBM, Arvind Krishna, a fait savoir qu'IBM avait mis en suspend ses produits d'analyse et de reconnaissance faciale à usage général, soulignant qu'« IBM s'oppose fermement et ne tolèrera pas l'utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits de l'homme et des libertés fondamentales, ou à toute autre fin qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence. »
Pour en savoir plus, consultez le blog de la politique d'IBM, qui présente son point de vue sur « Une approche de réglementation de précision pour contrôler les exportations de technologies de reconnaissance faciale ».”
Comme il n'existe pas de législation significative pour réglementer les pratiques de l'IA, aucun véritable mécanisme d'application n'est en vigueur pour garantir que l'IA est pratiquée de manière éthique. Ce qui incite actuellement les entreprises à adhérer à ces directives, ce sont les répercussions négatives d'un système d'IA non éthique sur les résultats financiers. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d'une collaboration entre éthiciens et chercheurs pour régir la construction et la distribution de modèles d'IA dans la société. Cependant, pour l'instant, ces éléments ne constituent qu'un guide, et les recherches (lien externe à IBM) (PDF, 984 KB) montrent que la combinaison d'une responsabilité distribuée et d'un manque de prévoyance quant aux conséquences potentielles n'est pas nécessairement propice à la prévention des dommages pour la société.
L'intelligence artificielle n'ayant pas donné naissance à des machines morales, des équipes ont commencé à assembler des cadres et des concepts pour répondre à certaines des préoccupations éthiques actuelles et façonner l'avenir du travail dans ce domaine. Bien que de nouvelles structures soient injectées chaque jour dans ces directives, il existe un certain consensus autour de l'intégration des éléments suivants :
Il ne fait aucun doute que la réussite de l'IA dépendra de son caractère éthique. Cependant, il est important de noter qu'elle a un énorme potentiel pour avoir un impact positif sur la société. Nous commençons à le voir dans son intégration dans des domaines de la santé, comme la radiologie. Cette conversation sur l'éthique de l'IA vise à garantir que, dans notre tentative d'exploiter cette technologie pour le bien, nous évaluons de manière appropriée son potentiel de nuisance dans sa conception.
Les normes éthiques n'étant pas la préoccupation première des ingénieurs et spécialistes des données dans le secteur privé, un certain nombre d'organisations ont vu le jour pour promouvoir une conduite éthique dans le domaine de l'intelligence artificielle. Si vous recherchez plus d'informations, les organisations et projets suivants fournissent des ressources sur la mise en œuvre d'une IA éthique :
IBM a également établi son propre point de vue sur l'éthique de l'IA, en créant des principes de confiance et de transparence pour aider les clients à comprendre où se situent ses valeurs dans le débat sur l'IA. IBM a défini trois principes fondamentaux qui dictent son approche des données et de l'IA, à savoir :
IBM a également développé un ensemble de domaines d'intérêt pour guider l'adoption responsable des technologies d'IA. Notamment :
Ces principes et domaines d'action constituent le fondement de notre approche de l'éthique de l'IA. Pour en savoir plus sur le point de vue d'IBM concernant l'éthique et l'intelligence artificielle, cliquez ici.
IBM s'efforce de garantir que ses produits sont construits et utilisés dans le respect des directives et des principes éthiques. IBM propose à ses clients divers produits dont IBM Watson Studio qui améliore la surveillance et la conformité aux normes éthiques de l'IA.
IBM Watson Studio on IBM Cloud Pak for Data permet de surveiller et de gérer les modèles pour exploiter l'IA en toute confiance. Une organisation peut visualiser et suivre les modèles d'IA en production, valider et tester les modèles pour atténuer les risques réglementaires, et accroître la visibilité du cycle de vie de l'IA. Inscrivez-vous pour obtenir un IBMid et créez votre compte IBM Cloud.
Pour en savoir plus sur le point de vue d'IBM sur l'éthique de l'intelligence artificielle, lisez ici.
Créez, exécutez et gérez des modèles d'IA. Préparez les données et construisez des modèles dans n'importe quel cloud à l'aide d'un code source ouvert ou de la modélisation visuelle. Prédisez et optimisez vos résultats.
Cloud Pak for Data est une plateforme de données ouverte et extensible qui fournit une matrice de données pour rendre toutes les données disponibles pour l'IA et l'analytique, dans n'importe quel cloud.
Approche multidisciplinaire et multidimensionnelle d'IBM pour l'éthique de l'IA