Cet article vise à fournir une vue d'ensemble du marché de l'éthique de l'IA dans l'industrie d'aujourd'hui. Pour en savoir plus sur le point de vue d'IBM, consultez notre page sur l'éthique de l'IA ici.
L'éthique est un ensemble de principes moraux qui nous permettent de discerner le bien et le mal. L'éthique de l'IA est un ensemble de lignes de conduite qui donnent des conseils sur la conception et les résultats de l'intelligence artificielle. Les êtres humains ont toutes sortes de biais cognitifs, comme le biais de récence et de confirmation, et ces biais inhérents se manifestent dans nos comportements et, donc, dans nos données. Comme les données constituent le socle de tous les algorithmes de machine learning, il est important que nous structurions les expériences et les algorithmes en gardant cela à l'esprit, car l'intelligence artificielle a le potentiel d'amplifier et d'étendre ces biais humains à un rythme sans précédent.
Avec l'émergence du Big Data, les entreprises se concentrent sur l'automatisation et la prise de décision basée sur les données dans l'ensemble de leurs services. Même si l'objectif vise généralement, sinon toujours, à améliorer les résultats de l'entreprise, les entreprises subissent des conséquences imprévues dans certaines de leurs applications d'IA, notamment en raison d'une conception déficiente de la recherche initiale et de jeux de données biaisés.
Face à la révélation de cas d'iniquité, de nouvelles lignes directrices ont émergé, principalement dans les milieux de la recherche et de la science des données, pour répondre aux préoccupations concernant l'éthique de l'IA. Les grandes entreprises du secteur de l'IA ont également un intérêt direct dans l'élaboration de ces lignes directrices, car elles commencent elles-mêmes à souffrir de certaines des conséquences du non-respect des normes éthiques dans leurs produits. Le manque de rigueur dans ce domaine peut avoir des conséquences qui peuvent ternir la réputation, poser des problèmes de réglementation et exposer à des procédures judiciaires donnant lieu à des sanctions coûteuses. Comme pour toutes les avancées technologiques, l'innovation tend à dépasser la réglementation gouvernementale dans les domaines nouveaux et émergents. À mesure que l'expertise appropriée se développe au sein de l'administration, on peut s'attendre à ce que les entreprises suivent davantage de protocoles d'IA, leur permettant d'éviter toute atteinte aux droits de l'homme et aux libertés civiles.
Multipliez la puissance de l'IA pour votre entreprise avec la plateforme de données et d'IA de nouvelle génération d'IBM
Découvrez-en plus sur la manière dont vous mettez en pratique les principes de l'IA éthique (326 Ko)
Alors que des règles et des protocoles sont élaborés pour gérer l'utilisation de l'IA, la communauté universitaire s'est appuyée sur le rapport Belmont (lien externe à IBM) (PDF de 121 Ko) pour guider l'éthique dans la recherche expérimentale et le développement algorithmique. Le rapport Belmont fait ressortir trois grands principes qui servent de ligne directrice pour les expériences et la conception d'algorithmes :
Éthique de l'IA d'IBM
Un certain nombre de questions sont au premier plan des conversations éthiques sur les technologies de l'IA, notamment :
Bien que ce sujet suscite une grande attention de la part du public, de nombreux chercheurs ne sont pas préoccupés par l'idée que l'IA surpasse l'intelligence humaine dans un avenir proche ou immédiat. On parle également de super intelligence, que Nick Bostrum définit comme « tout intellect qui surpasse largement les plus brillants cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales ». Bien que l'IA forte et la super intelligence ne soient pas imminentes dans la société, leur idée soulève des questions intéressantes lorsque nous envisageons l'utilisation de systèmes autonomes, comme les voitures autonomes. Il est irréaliste de penser qu'une voiture sans conducteur n'aura jamais d'accident de voiture. Mais qui est responsable et redevable dans ce cas ? Devons-nous continuer dans la voie des véhicules autonomes ou devons-nous limiter l'intégration de cette technologie pour créer uniquement des véhicules semi-autonomes qui favorisent la sécurité des conducteurs ? La question n'est pas encore tranchée, mais ce sont les types de débats éthiques qui se déroulent à mesure que se développent de nouvelles technologies innovantes dans le domaine de l'IA.
Alors que la perception qu'a le public de l'intelligence artificielle est souvent liée à la perte d'emploi, cette préoccupation devrait sans doute être recadrée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques change. Par exemple, dans l'industrie automobile, de nombreux fabricants, comme GM, se concentrent désormais sur la production de véhicules électriques pour s'aligner sur les projets écologiques. Le secteur de l'énergie ne disparaît pas, mais la source d'énergie passe d'une économie reposant sur l'utilisation de carburants à une économie exploitant l'électricité. L'intelligence artificielle doit être considérée de la même manière, car elle va déplacer la demande d'emplois vers d'autres domaines. Des personnes seront nécessaires pour gérer ces systèmes, car les données augmentent et changent tous les jours. Des ressources seront encore nécessaires pour résoudre des problèmes plus complexes dans les secteurs les plus susceptibles d'être touchés par l'évolution de la demande d'emploi, comme le service à la clientèle. Le principal enjeu de l'intelligence artificielle et de son effet sur le marché de l'emploi sera d'aider les individus à faire la transition vers ces nouveaux secteurs du marché.
On a tendance à aborder la protection de la vie privée dans le contexte de la confidentialité des données, de la protection des données et de la sécurité des données, et ces préoccupations ont permis aux décideurs politiques de faire davantage de progrès dans ce domaine au cours des dernières années. En 2016, par exemple, le règlement général sur la protection des données (RGPD) a été créé pour protéger les données personnelles des citoyens de l'Union européenne et de l'Espace économique européen, donnant aux individus un plus grand contrôle sur leurs données. Aux États-Unis, certains États développent des politiques, telles que la California Consumer Privacy Act (CCPA), qui obligent les entreprises à informer les consommateurs de la collecte de leurs données. Cette législation récente a obligé les entreprises à repenser la manière dont elles stockent et utilisent les données personnelles identifiables (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer toute vulnérabilité et toute possibilité de surveillance, de piratage et de cyberattaques.
Des cas de biais et de discrimination dans un certain nombre de systèmes intelligents ont soulevé de nombreuses questions éthiques concernant l'utilisation de l'intelligence artificielle. Comment éviter les biais et les discriminations lorsque les données d'apprentissage peuvent elles-mêmes être biaisées ? Alors que les entreprises font preuve généralement de bonnes intentions dans leurs efforts d'automatisation, Reuters (lien externe à IBM) souligne certaines des conséquences imprévues de l'intégration de l'IA dans les pratiques d'embauche. Dans le cadre de l'automatisation et de la simplification d'un processus, Amazon a involontairement discriminé des candidats potentiels en fonction de leur sexe pour les postes techniques ouverts, et a finalement dû abandonner le projet. Face à ces types de situations, la revue Harvard Business Review (lien externe à IBM) soulève d'autres questions concernant l'utilisation de l'IA dans les pratiques d'embauche, telles que les données que vous devez être en mesure d'utiliser pour évaluer un candidat à un poste.
Mais les biais et la discrimination ne se limitent pas aux ressources humaines. On les retrouve dans un certain nombre d'applications, comme les logiciels de reconnaissance faciale ou les algorithmes des médias sociaux.
Plus les entreprises sont conscientes des risques liés à l'IA, plus elles sont actives dans le débat sur l'éthique et les valeurs de l'IA. L'année dernière, par exemple, le PDG d'IBM, Arvind Krishna, a fait savoir qu'IBM avait mis en suspend ses produits d'analyse et de reconnaissance faciale à usage général, soulignant qu'« IBM s'oppose fermement à l'utilisation de toute technologie et ne la tolérera pas, y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits de l'homme et des libertés fondamentales, ou à toute autre fin qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence ».
Comme aucune législation particulière ne régit les pratiques d'IA, il n'existe pas de véritable mécanisme d'application pour garantir une pratique éthique de l'IA. Les entreprises sont actuellement incitées à adhérer à ces lignes directrices en raison des répercussions négatives d'un système d'IA non éthique sur leurs résultats. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d'une collaboration entre éthiciens et chercheurs pour régir la construction et la distribution de modèles d'IA dans la société. Cependant, pour l'instant, ils ne constituent qu'une orientation, et la recherche (lien externe à IBM) (PDF de 1 Mo) montre que le fait de répartir les responsabilités et de ne pas anticiper les conséquences potentielles n'est pas nécessairement propice à la prévention des dommages causés à la société.
L'intelligence artificielle n'ayant pas créé des machines dotées d'une morale, des équipes ont commencé à assembler des cadres et des concepts pour répondre à certaines des préoccupations éthiques actuelles et façonner l'avenir du travail dans ce domaine. Bien que de nouvelles structures soient injectées chaque jour dans ces directives, il existe un certain consensus autour de l'intégration des éléments suivants :
Il ne fait aucun doute que le succès de l'IA dépendra de son caractère éthique. Cependant, il est important de noter que son potentiel pour influencer positivement la société est énorme. Nous commençons à le voir dans son intégration dans des domaines de la santé, comme la radiologie. Ce débat sur l'éthique de l'IA vise à garantir que, dans notre tentative d'exploiter cette technologie pour le bien, les risques potentiels qu'elle présente soient évalués de manière appropriée lors de sa conception.
Les normes éthiques n'étant pas la préoccupation première des ingénieurs et spécialistes des données dans le secteur privé, un certain nombre d'organisations ont vu le jour pour promouvoir une conduite éthique dans le domaine de l'intelligence artificielle. Si vous recherchez plus d'informations, les organisations et projets suivants fournissent des ressources sur la mise en œuvre d'une IA éthique :
IBM a également établi son propre point de vue sur l'éthique de l'IA, en créant des principes de confiance et de transparence pour aider les clients à comprendre où se situent ses valeurs dans le débat sur l'IA. IBM a défini trois principes fondamentaux qui dictent son approche des données et de l'IA, à savoir :
IBM a également développé un ensemble de domaines d'intérêt pour guider l'adoption responsable des technologies d'IA, à savoir :
Ces principes et domaines d'action constituent le fondement de notre approche de l'éthique de l'IA. Cliquez ici pour en savoir plus sur le point de vue d'IBM sur l'éthique et l'intelligence artificielle.
IBM s'efforce de garantir que ses produits sont construits et utilisés dans le respect des directives et des principes éthiques. IBM propose à ses clients divers produits, dont IBM Watson Studio, qui améliorent la surveillance et la conformité aux normes éthiques de l'IA.
IBM Watson Studio on IBM Cloud Pak for Data permet de surveiller et de gérer les modèles pour exploiter l'IA en toute confiance. Une organisation peut visualiser et suivre les modèles d'IA en production, valider et tester les modèles pour atténuer les risques liés aux réglementations et accroître la visibilité du cycle de vie de l'IA. Inscrivez-vous dès aujourd'hui pour obtenir un IBMid et créer votre compte IBM Cloud.
Cliquez ici pour en savoir plus sur le point de vue d'IBM sur l'éthique de l'intelligence artificielle.
Créez, exécutez et gérez des modèles d’intelligence artificielle. Préparez les données et créez des modèles sur n’importe quel cloud à l’aide d’un code source ouvert ou d’une modélisation visuelle. Prévoyez et optimisez vos résultats.
Cloud Pak for Data est une plateforme de données ouverte et extensible qui fournit une data fabric pour rendre toutes les données disponibles pour l'IA et l'analyse, dans n'importe quel cloud.
Approche multidisciplinaire et multidimensionnelle d'IBM pour l'éthique de l'IA