Le biais de l’IA, également appelé biais de machine learning ou biais d’algorithme, fait référence à l’apparition de résultats biaisés en raison de préjugés humains qui faussent les données d’entraînement ou l’algorithme d’IA d’origine. Cela entraîne des résultats faussés et des conséquences potentiellement néfastes.
Lorsque les préjugés ne sont pas traités, ils entravent la capacité des individus à participer à l’économie et à la société. Le biais réduit la précision de l’IA, et donc son potentiel.
Les entreprises sont moins susceptibles de bénéficier de systèmes qui produisent des résultats biaisés. Les scandales résultant des biais de l’IA pourraient favoriser la méfiance des personnes de couleur, des femmes, des personnes en situation de handicap, de la communauté LGBTQ ou d’autres groupes marginalisés.
Les modèles sur lesquels reposent les efforts d’IA absorbent les préjugés de la société qui peuvent être discrètement intégrés dans les monceaux de données sur lesquels ils sont entraînés. La collecte de données biaisées par l’histoire et qui reflètent les inégalités sociétales peut nuire aux groupes historiquement marginalisés dans des cas d’utilisation tels que le recrutement, la police, la notation de crédit et bien d’autres. Selon le Wall Street Journal, « alors que l’utilisation de l’intelligence artificielle se généralise, les entreprises ont encore du mal à lutter contre les biais omniprésents ».1
Lorsque l’IA commet une erreur due à un biais (comme le fait de refuser des opportunités à certains groupes de personnes, de les identifier de manière erronée sur des photos ou de les punir injustement), l’organisation fautive subit des dommages à sa marque et à sa réputation. Dans le même temps, les personnes appartenant à ces groupes et la société dans son ensemble peuvent subir un préjudice sans même s’en rendre compte. Voici quelques exemples très médiatisés de disparités et de biais dans l’IA et des torts qu’ils peuvent causer.
Dans le domaine des soins de santé, la sous-représentation des données relatives aux femmes ou aux groupes minoritaires peut fausser les algorithmes prédictifs de l’IA.2 Il a ainsi été constaté que les systèmes de diagnostic assisté par ordinateur (CAO) fournissaient des résultats moins précis pour les patients afro-américains que pour les patients blancs.
Si les outils d’IA peuvent rationaliser l’automatisation de la numérisation des CV lors d’une recherche pour aider à identifier les candidats idéaux, les informations demandées et les réponses exclues peuvent entraîner des résultats disproportionnés entre les groupes. Par exemple, si une offre d’emploi utilise le mot « ninja », elle pourrait attirer plus d’hommes que de femmes, même si cela ne constitue en aucun cas une exigence de l’emploi.3
Pour tester la génération d’images, Bloomberg a demandé la création de plus de 5 000 images d’IA et a constaté que « le monde selon Stable Diffusion est dirigé par des PDG blancs. Les femmes sont rarement médecins, avocates ou juges. Les hommes de couleur commettent des crimes, tandis que les femmes de couleur servent des hamburgers. »4 Midjourney a mené une étude similaire sur la génération d’art par l’IA, en demandant des images de personnes exerçant des professions spécialisées. Le résultat montrait à la fois des personnes jeunes et âgées, mais les personnes âgées étaient toujours des hommes, ce qui renforce les préjugés sexistes sur le rôle des femmes sur le lieu de travail.5
Les outils de police prédictive basés sur l’IA utilisés par certains organes de la justice pénale sont censés identifier les zones où les actes criminels sont le plus susceptibles de se produire. Cependant, ces outils s’appuient souvent sur des données historiques d’arrestations, qui peuvent renforcer les schémas existants de profilage racial et de ciblage des communautés minoritaires relativement disproportionné.6
Des résultats faussés peuvent nuire aux organisations et à la société dans son ensemble. Voici quelques-uns des types de biais les plus courants de l’IA7.
Biais d’homogénéité de l’exogroupe : il s’agit d’un cas où il y a méconnaissance de ce que l’on ne connaît pas. Les gens ont tendance à mieux comprendre les membres du groupe auquel ils appartiennent et à penser qu’ils sont plus diversifiés que les membres extérieurs. Les développeurs peuvent ainsi créer des algorithmes moins capables de distinguer les individus qui ne font pas partie du groupe majoritaire dans les données d’apprentissage, ce qui entraîne des préjugés raciaux, des erreurs de classification et des réponses incorrectes.
La première étape pour éviter le piège des biais consiste simplement à prendre du recul dès le début et à réfléchir à l’IA. Comme pour presque tous les défis commerciaux, il est beaucoup plus facile de résoudre les problèmes en amont que le faire après coup. Mais de nombreuses organisations sont pressées : elles font des économies de bouts de chandelle et cela leur coûte cher.
L’identification et le traitement des biais dans l’IA exigent la gouvernance de l’IA, c’est-à-dire la capacité de diriger, de gérer et de surveiller les activités d’IA au sein de l’entreprise. En pratique, la gouvernance de l’IA crée un ensemble de politiques, de pratiques et de cadres d’exigences pour guider le développement responsable et l’utilisation des technologies d’IA. Lorsqu’elle est bien menée, la gouvernance de l’IA aide à garantir un équilibre entre les avantages pour les entreprises, les clients, les employés et la société dans son ensemble.
La gouvernance de l’IA comprend souvent des méthodes visant à évaluer l’équité, la justice et l’inclusion. Des approches telles que l’équité contrefactuelle identifient les biais dans la prise de décision d’un modèle et garantissent des résultats équitables, même lorsque des attributs sensibles, tels que le sexe, la race ou l’orientation sexuelle, sont inclus.
Du fait de la complexité de l’IA, un algorithme peut s’apparenter à une boîte noire contenant peu d’informations sur les données qui ont été utilisées pour le créer. Les pratiques et les technologies de transparence contribuent à garantir que des données impartiales sont utilisées pour développer le système et que les résultats seront équitables. Les entreprises qui s’efforcent de protéger les informations des clients renforcent la confiance dans la marque et sont plus susceptibles de créer des systèmes d’IA fiables.
Pour renforcer l’assurance qualité, mettez en place un système « humain » qui propose des options ou formule des recommandations pouvant ensuite être approuvées par des décisions humaines.
Voici une liste de contrôle de six étapes de processus qui peuvent garantir l’impartialité des programmes d’IA.
1. Sélectionnez le bon modèle d’apprentissage :
2. Entraînez le modèle avec les bonnes données : un système de machine learning entraîné avec des données erronées produira des résultats erronés. Quelles que soient les données introduites dans l’IA, elles doivent être complètes et équilibrées afin de reproduire la démographie réelle du groupe considéré.
3. Constituez une équipe équilibrée : plus l’équipe d’IA est diversifiée (sur le plan racial, économique, du niveau d’éducation, du sexe et de la description de poste), plus elle est susceptible de reconnaître les biais. Les talents et les points de vue d’une équipe d’IA bien équilibrée devraient inclure des innovateurs, des créateurs et des responsables de la mise en œuvre de l’IA, ainsi qu’une représentation des consommateurs de cet effort particulier d’IA.9
4. Traitez les données avec attention : les entreprises doivent être conscientes des biais à chaque étape du traitement des données. Le risque ne se situe pas seulement dans la sélection des données ; que ce soit pendant le prétraitement, le traitement ou le post-traitement, les biais peuvent s’infiltrer à tout moment et être intégrés à l’IA.
5. Effectuez une surveillance continue : aucun modèle n’est jamais complet ou permanent. Une surveillance et des tests continus avec des données réelles provenant de toute l’organisation peuvent aider à détecter et à corriger les biais avant qu’ils ne causent des dommages. Pour éviter davantage les biais, les organisations devraient envisager de faire appel à une équipe indépendante au sein de l’organisation ou à un tiers de confiance pour les évaluations.
6. Évitez les problèmes d’infrastructure : outre les influences humaines et les données, l’infrastructure elle-même peut parfois être à l’origine de biais. Par exemple, en exploitant des données collectées par des capteurs mécaniques, l’équipement lui-même pourrait introduire un biais si les capteurs fonctionnent mal. Ce type de biais peut être difficile à détecter et nécessite d’investir dans les dernières infrastructures numériques et technologiques.
Découvrez l’impact du règlement européen sur l’IA pour les entreprises, comment vous préparer, limiter les risques et concilier réglementation et innovation.
Apprenez-en plus sur les nouveaux défis de l’IA générative, la nécessité de gouverner les modèles d’IA et de ML et les étapes à suivre pour créer un cadre des exigences fiable, transparent et explicable.
Découvrez comment favoriser des pratiques éthiques et conformes grâce à un portefeuille de produits d’IA dédiés aux modèles d’IA générative.
Avec watsonx.governance, apprenez à mieux comprendre comment assurer l’équité, gérer les dérives, maintenir la qualité et améliorer l’explicabilité.
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.
Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.
1 The Wall Street Journal : Rise of AI Puts Spotlight on Bias in Algorithms
2 Booz Allen Hamilton : Artificial Intelligence Bias in Healthcare
3 LinkedIn : Reducing AI Bias — A Guide for HR Leaders
4 Bloomberg : Humans Are Biased. Generative AI Is Even Worse
5 The Conversation US : Ageism, sexism, classism and more — 7 examples of bias in AI-generated images
6 Technology Review : Predictive policing is still racist—whatever data it uses
7 Tech Target : Machine learning bias (AI bias)
Chapman University AI Hub : Bias in AI
AIMultiple : Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023
8 McKinsey : Tackling bias in artificial intelligence (and in humans)
9 Forbes : The Problem With Biased AIs (and How To Make AI Better)