Accueil
Thèmes
Éthique de l’IA
L'éthique est un ensemble de principes moraux qui nous aident à discerner le bien du mal. L’éthique de l’IA est un domaine pluridisciplinaire qui étudie comment optimiser l’impact bénéfique de l’IA tout en réduisant ses risques et ses effets indésirables.
Les exemples de problèmes éthiques liés à l'IA incluent la responsabilité et la confidentialité des données, l'équité, l'explicabilité, la robustesse, la transparence, la durabilité environnementale, l'inclusion, le libre arbitre, l'alignement des valeurs, la responsabilité, la confiance et l'utilisation abusive des technologies. Cet article vise à fournir une vue d'ensemble de l'éthique de l'IA dans le secteur moderne. Pour en savoir plus sur le point de vue d'IBM, consultez notre page sur l'éthique de l'IA ici.
Avec l’émergence du big data, les entreprises se concentrent davantage sur l’automatisation et la prise de décision fondée sur les données au sein de leur organisation. Bien que l’intention soit généralement, sinon toujours, d’améliorer les résultats commerciaux, les entreprises subissent des conséquences imprévues dans certaines de leurs applications d’IA, notamment en raison d’une mauvaise conception de la recherche initiale et de jeux de données biaisés.
À mesure que des cas de résultats abusifs ont été révélés, de nouvelles lignes directrices ont vu le jour, principalement dans les milieux de la recherche et de la science des données, pour répondre aux préoccupations concernant l'éthique de l'IA. Les entreprises leaders dans le domaine de l'IA ont également un intérêt direct dans l'élaboration de ces lignes directrices, car elles ont elles-mêmes commencé à subir certaines des conséquences d'un manque de respect des normes éthiques dans le cadre de leurs produits. Le manque de diligence dans ce domaine peut nuire à la réputation, aux réglementations et aux affaires juridiques, ce qui entraîne des sanctions coûteuses. Comme pour toutes les avancées technologiques, l'innovation a tendance à devancer la réglementation gouvernementale dans les nouveaux domaines émergents. À mesure que l'expertise appropriée se développe au sein du secteur public, on peut s'attendre à ce que les entreprises adoptent davantage de protocoles d'IA, ce qui leur permettra d'éviter toute violation des droits humains et des libertés civiles.
Accélérez la mise en place de workflows responsables, transparents et explicables pour l’IA générative basée sur des plateformes tierces.
Alors que des règles et des protocoles se développent pour gérer l’utilisation de l’IA, la communauté universitaire a utilisé le rapport Belmont (lien externe à ibm.com) pour ne pas perdre de vue l’éthique dans la recherche expérimentale et le développement algorithmique. Trois grands principes sont ressortis du rapport Belmont et servent de guide pour la conception d’expériences et d’algorithmes :
Un certain nombre de questions sont au premier plan des conversations éthiques concernant les technologies d'IA dans le monde réel. En voici quelques-unes :
La sortie de ChatGPT en 2022 a marqué un véritable tournant pour l’intelligence artificielle. Les capacités du chatbot d’OpenAI, qui vont de la rédaction de dossiers juridiques au débogage de code, ont ouvert une nouvelle constellation de possibilités concernant ce que l’IA peut faire et la façon dont elle peut être appliquée dans presque tous les secteurs. ChatGPT et des outils similaires sont construits sur des modèles de fondation, des modèles d’IA qui peuvent être adaptés à un large éventail de tâches en aval. Les modèles de fondation sont généralement des modèles génératifs à grande échelle, composés de milliards de paramètres, qui sont entraînés sur des données non étiquetées à l’aide de l’auto-supervision. Ceci permet aux modèles de fondation d’appliquer rapidement ce qu’ils ont appris dans un contexte à un autre contexte, ce qui les rend très adaptables et capables d’effectuer une grande variété de tâches. Pourtant, les modèles de fondation peuvent poser de nombreux problèmes et préoccupations éthiques, qui sont communément admis dans le secteur des technologies : biais, génération de faux contenus, absence d’explicabilité, utilisation abusive et impact sociétal. Bon nombre de ces questions concernent l’IA en général, mais deviennent urgentes compte tenu de la puissance et de la disponibilité des modèles de fondation.
Bien que ce sujet suscite beaucoup d’attention chez le public, de nombreux chercheurs ne pensent pas que l’IA puisse surpasser l’intelligence humaine dans un avenir proche. On parle également de superintelligence, que Nick Bostrum définit comme « toute intelligence qui surpasse largement les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse en général et les compétences sociales ». Bien que l’IA forte et la superintelligence ne soient pas imminentes dans notre société, leur idée soulève des questions intéressantes lorsque nous envisageons l’utilisation de systèmes autonomes, comme les voitures sans conducteur. Il est irréaliste de penser qu’une voiture sans conducteur n’aura jamais d’accident, mais à qui incombe la responsabilité s’il devait se produire ? Devons-nous tenter de mettre au point des voitures sans conducteur, ou devons-nous limiter l’intégration de cette technologie pour créer uniquement des véhicules semi-autonomes qui favorisent la sécurité des conducteurs ? Cette question fait toujours l’objet de débats, mais il s’agit là de débats éthiques qui se produisent inévitablement au fur et à mesure que de nouvelles technologies d’IA innovantes se développent.
Bien que la perception de l’intelligence artificielle dans le public soit largement axée sur les pertes d’emplois, cette préoccupation devrait probablement être reformulée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques évolue. Par exemple, dans l’industrie automobile, de nombreux fabricants, comme GM, se concentrent sur la production de véhicules électriques pour s’aligner sur les initiatives écologiques. Le secteur de l’énergie ne disparaît pas, mais la source d’énergie passe d’une économie de carburant à une source d’énergie électrique. L’intelligence artificielle devrait être considérée de la même manière, où l’intelligence artificielle déplacera la demande d’emplois vers d’autres domaines. Il faudra être à même de gérer ces systèmes à mesure que les données augmentent et évoluent chaque jour. Dans les secteurs les plus susceptibles d’être touchés par l’évolution de la demande d’emploi, comme le service client, il faudra encore des ressources capables de résoudre des problèmes plus complexes. L'aspect important de l'intelligence artificielle et de son effet sur le marché du travail sera d’aider les gens à s’adapter aux nouveaux rôles qui sont en demande.
La confidentialité a tendance à être abordée dans le contexte de la confidentialité, de la protection et de la sécurité des données, et ces préoccupations ont permis aux décideurs politiques de faire de nouveaux progrès à cet égard ces dernières années. Par exemple, en 2016, la législation RGPD a été créée pour protéger les données personnelles des personnes de l’Union européenne et de l’Espace économique européen, donnant aux individus plus de contrôle sur leurs données. Aux États-Unis, les États ont élaboré des politiques, comme la loi sur la protection des données personnelles du consommateur en Californie (CCPA), qui oblige les entreprises à informer les consommateurs de la collecte de leurs données. Cette récente législation a obligé les entreprises à repenser la manière dont elles stockent et utilisent les données personnelles (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer les vulnérabilités et les possibilités de surveillance, de piratage et de cyberattaques.
Les cas de préjugés et de discrimination dans un certain nombre de systèmes intelligents ont soulevé de nombreuses questions éthiques concernant l’utilisation de l’intelligence artificielle. Comment pouvons-nous nous prémunir contre les préjugés et la discrimination alors que les jeux de données d'entraînement peuvent être biaisés ? Bien que les entreprises aient généralement des bonnes intentions concernant leurs efforts d’automatisation, l’intégration de l’IA dans les pratiques de recrutement peut avoir des conséquences imprévues. Dans son effort pour automatiser et simplifier un processus, Amazon a involontairement biaisé les candidats potentiels (lien externe à ibm.com) en fonction de leur sexe pour les postes techniques à pourvoir, et a finalement dû abandonner le projet. Alors que de tels événements font surface, la Harvard Business Review (lien externe à ibm.com) a soulevé d’autres questions pointues sur l’utilisation de l’IA dans les pratiques de recrutement, telles que les données que vous devriez pouvoir utiliser lors de l’évaluation d’un candidat pour un poste.
Les préjugés et la discrimination ne se limitent pas non plus à la fonction des ressources humaines. On les trouve dans de nombreuses applications, des logiciels de reconnaissance faciale aux algorithmes de réseaux sociaux.
De plus en plus conscientes des risques liés à l’IA, les entreprises sont également plus actives dans le débat sur l’éthique et les valeurs de l’IA. Par exemple, l’année dernière, le PDG d’IBM, Arvind Krishna, a indiqué qu’IBM avait mis un frein au développement de ses produits d’analyse et de reconnaissance faciale à usage général, soulignant qu’« IBM s’oppose fermement à l’utilisation de toute technologie, notamment la technologie de reconnaissance faciale proposée par d’autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits de l’homme et des libertés fondamentales, ou à toute autre fin qui n’est pas conforme à nos valeurs et à nos principes de confiance et de transparence ».
Il n’existe pas de législation universelle et globale qui réglemente les pratiques d’IA, mais de nombreux pays et États s’efforcent de les développer et de les mettre en œuvre au niveau local. Certains éléments de la réglementation de l’IA sont en place aujourd’hui, et de nombreux autres sont à venir. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d’une collaboration entre spécialistes de l’éthique et chercheurs afin de régir le développement et la distribution de modèles IA dans la société. Cependant, pour le moment, ils ne servent que de guide, et la recherche (lien externe à ibm.com) montre que la combinaison d'une responsabilité répartie et d'un manque de prévoyance quant aux conséquences potentielles n'est pas nécessairement propice à la prévention des dommages causés à la société.
L’intelligence artificielle fonctionne selon la façon dont elle est conçue, développée, formée, réglée et utilisée, et l’éthique de l’IA consiste à établir un écosystème de normes éthiques et de garde-fous tout au long de toutes les phases du cycle de vie d’un système d’IA.
Les organisations, les gouvernements et les chercheurs ont commencé à élaborer des cadres pour répondre aux préoccupations éthiques actuelles en matière d’IA et façonner l’avenir du travail dans ce domaine. Bien que davantage de structure soit intégrée dans ces lignes directrices chaque jour, il existe un certain consensus autour de l'intégration des éléments suivants :
La gouvernance est l'action d'une organisation qui supervise le cycle de vie de l'IA par le biais de politiques et de processus internes, de personnel et de systèmes. La gouvernance permet de garantir que les systèmes d’IA fonctionnent conformément aux principes et aux valeurs d’une organisation, comme le prévoient les parties prenantes et comme l’exige la réglementation en vigueur. Un programme de gouvernance réussi :
définir les rôles et les responsabilités des personnes travaillant avec l’IA.
sensibilise toutes les personnes impliquées dans le cycle de vie de l’IA pour le développement d'une IA responsable.
établit des processus de création, de gestion, de surveillance et de communication sur l’IA et les risques liés à l’IA
tire parti d’outils pour améliorer les performances et la fiabilité de l’IA tout au long de son cycle de vie.
Un comité d’éthique de l’IA est un mécanisme de gouvernance particulièrement efficace. Chez IBM, le comité d’éthique de l’IA est composé d’un panel de dirigeants issus de l’ensemble de l’entreprise. Il élabore un processus centralisé de gouvernance, d’examen et de prise de décision pour les politiques et les pratiques d’IBM relevant de l’éthique. En savoir plus sur le Comité d’éthique de l’IA d’IBM.
L’approche d’une organisation en matière d’éthique de l’IA peut être guidée par des principes qui peuvent être appliqués aux produits, aux politiques, aux processus et aux pratiques dans toute l’organisation pour contribuer à une IA digne de confiance. Ces principes doivent être structurés et soutenus par certaines priorités, comme l’explicabilité ou l’équité, autour desquels des normes peuvent être élaborées et des pratiques peuvent être alignées.
Lorsque l'IA est conçue dans le respect de l'éthique, elle est capable d'avoir un impact positif sur la société. Nous avons commencé à le constater en l'intégrant dans des domaines des soins de santé tels que la radiologie. Le débat sur l'éthique de l'IA est également important pour évaluer et atténuer de manière appropriée les risques éventuels liés à l'utilisation de l'IA, dès la phase de conception.
Étant donné que les normes éthiques ne sont pas la principale préoccupation des ingénieurs et des data scientists du secteur privé, un certain nombre d'organisations ont vu le jour pour promouvoir une conduite éthique dans le domaine de l'intelligence artificielle. Pour ceux qui souhaitent plus d'informations, les organisations et projets suivants fournissent des ressources pour mettre en œuvre l'éthique de l'IA :
IBM a également établi son propre point de vue sur l’éthique de l’IA, en créant des principes de confiance et de transparence pour aider les clients à comprendre où se situent ses valeurs dans le débat autour de l’IA. IBM a trois principes fondamentaux qui dictent son approche du développement des données et de l’IA, à savoir :
IBM a également développé cinq piliers pour guider l’adoption responsable des technologies d’IA. Notamment :
Ces principes et ces domaines d’intérêt constituent le fondement de notre approche de l’éthique de l’IA. Pour en savoir plus sur le point de vue d’IBM sur l’éthique et l’intelligence artificielle, cliquez ici.
L’approche pluridisciplinaire et multidimensionnelle d’IBM pour une IA digne de confiance
Créez, exécutez et gérez des modèles d’IA. Préparez les données et créez des modèles sur n’importe quel cloud à l’aide d’un code open source ou de la modélisation visuelle. Faites des prédictions et optimisez vos résultats.
Créez des workflows d’IA responsables, transparents et explicables.