Mise en lumière des biais de l’IA avec des exemples concrets
16 octobre 2023
6 minutes de lecture

Alors que les entreprises ont de plus en plus recours à l’intelligence artificielle (IA), les gens se demandent dans quelle mesure les préjugés humains ont pénétré les systèmes d’IA. Les exemples de préjugés liés à l’IA dans le monde réel nous montrent que lorsque des données et des algorithmes discriminants sont intégrés dans des modèles IA, ces derniers déploient les préjugés à grande échelle et amplifient les effets négatifs qui en résultent.

Les entreprises cherchent par tous les moyens à garantir la partialité de l’IA, non seulement pour des raisons d’équité, mais aussi pour obtenir de meilleurs résultats. Cependant, il en va de même des préjugés raciaux et sexistes ancrés dans la société comme des biais de l’IA : ils ne sont pas faciles à éliminer.

Dans l’article « What AI can and can’t do (yet) for your business » (Ce que l’IA peut et ne peut pas (encore) faire pour votre entreprise), les auteurs Michael Chui, James Manyika et Mehdi Miremadi de McKinsey ont noté : « Ces biais ont tendance à rester ancrés, car les reconnaître et prendre des mesures pour les corriger nécessite une maîtrise approfondie des techniques de science des données, ainsi qu’une meilleure compréhension des forces sociales existantes, y compris de la collecte de données. Dans l’ensemble, l’élimination des biais s’avère l’un des obstacles les plus redoutables à ce jour, et certainement l’un des plus difficiles à surmonter sur le plan sociétal. »

Les exemples de biais de l’IA tirés de la vie réelle fournissent aux entreprises des informations utiles sur la manière de les identifier et de les traiter. En examinant ces exemples d’un œil critique et les succès obtenus pour les surmonter, les data scientists peuvent élaborer une feuille de route pour les identifier et les éviter dans leurs modèles de machine learning.

Qu’est-ce que les biais dans l’intelligence artificielle ?

Les biais de l’IA, également appelés biais de machine learning ou biais d’algorithme, désignent les systèmes d’IA qui produisent des résultats biaisés reflétant et perpétuant les préjugés humains au sein d’une société, y compris les inégalités sociales parmi les générations précédentes et actuelles. Les biais peuvent se loger dans les données d’entraînement initiales, dans l’algorithme ou dans les prédictions générées par l’algorithme.

Lorsque les préjugés ne sont pas traités, ils entravent la capacité des individus à participer à l’économie et à la société. Ils réduisent également le potentiel de l’IA. Les entreprises ne peuvent pas tirer profit de systèmes qui produisent des résultats faussés et suscitent la méfiance des personnes de couleur, des femmes, des personnes handicapées, de la communauté LGBTQ ou d’autres groupes de personnes marginalisées.

La source des préjugés dans l’IA

L’élimination des biais de l’IA nécessite d’examiner en profondeur les ensembles de données, les algorithmes de machine learning et d’autres éléments des systèmes IA afin d’identifier les sources potentielles.

Biais des données d’entraînement

Comme les systèmes IA apprennent à prendre des décisions à partir des données d’entraînement, il est essentiel d’évaluer les ensembles de données pour détecter la présence de biais. L’une des méthodes consiste à examiner des échantillons de données pour les groupes surreprésentés ou sous-représentés dans les données d’entraînement. Par exemple, les données d’entraînement pour un algorithme de reconnaissance faciale dans lesquelles les personnes de race blanche sont surreprésentées peuvent produire des erreurs lors de la reconnaissance faciale des personnes de couleur. De même, les données de sécurité qui contiennent des informations recueillies dans des zones géographiques où les ethnies de couleur prédominent peuvent créer un préjugé racial dans les outils IA utilisés par la police.

Un biais peut également résulter de la manière dont les données d’entraînement sont étiquetées. Par exemple, les outils de recrutement basés sur l’IA qui utilisent un étiquetage incohérent ou qui excluent ou surreprésentent certaines caractéristiques risquent d’éliminer les candidats qualifiés.

Biais algorithmique

L’utilisation de données d’entraînement erronées peut donner lieu à des algorithmes qui produisent des erreurs de façon répétée, des résultats partiaux, voire une amplification du biais inhérent à ces données incorrectes. Les biais algorithmiques peuvent également provenir d’erreurs de programmation, par exemple lorsqu’un développeur pondère de façon inéquitable certains facteurs dans le processus décisionnel d’un algorithme en fonction de ses propres préjugés conscients ou inconscients. De même, l’algorithme peut utiliser des indicateurs comme les revenus ou le vocabulaire pour discriminer involontairement des personnes d’une certaine race ou d’un certain sexe.

Biais cognitifs

Lorsque les personnes traitent des informations et émettent des jugements, elles sont inévitablement influencées par leurs expériences et préférences. Par conséquent, elles peuvent introduire ces préjugés dans les systèmes IA au niveau de la sélection des données ou dans la manière dont elles effectuent les pondérations. Les biais cognitifs peuvent ainsi conduire à favoriser les ensembles de données recueillies auprès des Américains plutôt que les échantillons d’un éventail de populations à travers le monde.

Selon le NIST, cette source de biais est plus courante qu’on ne l‘imagine. Dans son rapport Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), le NIST a noté que « les facteurs humains et systémiques, institutionnels et sociétaux sont également des sources importantes de biais de l’IA et sont actuellement négligés. Pour relever ce défi, il faudra prendre en compte toutes les formes de biais. Cela signifie élargir notre perspective au-delà du pipeline de machine learning pour étudier comment cette technologie est à la fois créée au sein de notre société et l’influence. »

Exemples de biais de l’IA dans la vie réelle

Alors que la société prend de plus en plus conscience du mode de fonctionnement de l’IA et des risques de partialité, les entreprises ont découvert de nombreux exemples notoires de biais de l’IA dans un large éventail de cas d’utilisation.

  • Soins de santé : les données sous-représentées concernant les femmes ou les groupes minoritaires peuvent fausser les algorithmes d’IA prédictifs. Il a ainsi été constaté que les systèmes de diagnostic assisté par ordinateur (CAO) fournissaient des résultats moins précis pour les patients noirs que pour les patients blancs.
  • Systèmes de suivi des candidats : les problèmes liés aux algorithmes de traitement du langage naturel peuvent produire des résultats biaisés au sein des systèmes de suivi des candidats. Par exemple, Amazon a cessé d’utiliser un algorithme de recrutement après avoir constaté qu’il privilégiait les candidats en fonction de termes tels que « exécuté » ou « capturé », que l’on retrouve plus souvent dans les CV masculins.
  • Publicité en ligne : les biais dans les algorithmes publicitaires des moteurs de recherche peuvent renforcer les préjugés sexistes liés aux emplois. Une étude indépendante de l’Université Carnegie Mellon de Pittsburgh a révélé que le système de publicité en ligne de Google présentait plus souvent des postes à forte rémunération aux hommes qu’aux femmes.
  • Génération d’images : des recherches universitaires ont révélé des biais dans l’application Midjourney de création d’images d’art par IA générative. Lorsqu’on lui a demandé de créer des images de personnes exerçant des professions spécialisées, elle a montré à la fois des personnes jeunes et plus âgées, mais les personnes plus âgées étaient toujours des hommes, ce qui renforçait les préjugés sexistes quant au rôle des femmes dans les milieux professionnels.
  • Outils de police prédictive : les outils de police prédictive basés sur l’IA utilisés par certains organes de la justice pénale sont censés identifier les zones où les actes criminels sont le plus susceptibles de se produire. Cependant, ces outils s’appuient souvent sur des données historiques d’arrestations, qui peuvent renforcer les schémas existants de profilage racial et de ciblage des communautés minoritaires relativement disproportionné.
Réduction des biais et gouvernance de l’IA

L’identification et le traitement des biais dans l’IA commence par la gouvernance de l’IA, c’est-à-dire la capacité de diriger, de gérer et de surveiller les activités d’IA au sein de l’entreprise. En pratique, la gouvernance de l’IA crée un ensemble de politiques, de pratiques et de cadres d’exigences pour guider le développement responsable et l’utilisation des technologies d’IA. Lorsqu’elle est bien menée, la gouvernance de l’IA garantit un équilibre entre les avantages pour les entreprises, les clients, les employés et la société dans son ensemble.

Grâce aux politiques de gouvernance de l’IA, les entreprises peuvent mettre en place les pratiques suivantes :

  • Conformité : les solutions d’IA et les décisions liées à l’IA doivent être conformes aux réglementations sectorielles et aux exigences légales en vigueur.
  • Confiance : les entreprises qui s’efforcent de protéger les informations des clients renforcent la confiance dans la marque et sont plus susceptibles de créer des systèmes d’IA fiables.
  • Transparence : du fait de la complexité de l’IA, un algorithme peut s’apparenter à une boîte noire contenant peu d’informations sur les données qui ont été utilisées pour le créer. La transparence permet de garantir que des données impartiales sont utilisées pour construire le système et que les résultats seront équitables.
  • Efficacité : l’une des plus grandes promesses de l’IA est de réduire les tâches manuelles et de faire gagner du temps aux employés. L’IA doit être conçue pour aider à atteindre les objectifs stratégiques, accélérer les délais de mise sur le marché et réduire les coûts.
  • Équité : la gouvernance de l’IA comprend souvent des méthodes visant à évaluer l’impartialité, l’équité et l’inclusion. Des approches comme l’équité contrefactuelle identifient les biais dans les décisions d’un modèle et garantissent des résultats équitables, même lorsque des attributs sensibles, tels que le sexe, la race ou l’orientation sexuelle, sont modifiés.
  • La touche humaine : des processus tels que le système « humain dans la boucle » (human-in-the-loop) proposent des options ou formulent des recommandations qui sont ensuite examinées par des humains avant qu’une décision ne soit prise pour fournir un autre niveau d’assurance qualité.
  • Apprentissage renforcé : cette technique d’apprentissage non supervisé utilise des récompenses et des punitions pour apprendre à un système à apprendre des tâches. McKinsey note que l’apprentissage par renforcement transcende les préjugés humains et a le potentiel de générer « des solutions et des stratégies jusque-là inimaginables que même les professionnels expérimentés n’auraient jamais envisagés ».
Biais, IA et IBM

Une bonne combinaison de technologies peut être cruciale pour une stratégie efficace de gouvernance des données et de l’IA, soutenue par deux éléments clés : une architecture de données moderne et une plateforme d’IA digne de confiance. L’orchestration des politiques au sein d’une architecture data fabric est un excellent outil qui peut simplifier les processus complexes d’audit de l’IA. En intégrant l’audit de l’IA et les processus connexes dans les politiques de gouvernance de votre architecture de données, votre entreprise est mieux à même de comprendre les domaines qui nécessitent une inspection continue.

Chez IBM Consulting, nous aidons nos clients à mettre en place un processus d’évaluation des biais et d’autres domaines. À mesure que l’adoption de l’IA se développe et que les innovations évoluent, les directives de sécurité évoluent également, comme c’est le cas pour toutes les technologies intégrées à la structure d’une entreprise au fil des ans. Nous vous présentons ci-dessous quelques bonnes pratiques d’IBM pour aider les organisations à se préparer au déploiement sécurisé de l’IA dans leurs environnements :

  1. Tirez parti d’une IA digne de confiance en évaluant les politiques et les pratiques des fournisseurs.
  2. Sécurisez l’accès aux utilisateurs, aux modèles et aux données.
  3. Protégez les modèles, les données et l’infrastructure de l’IA contre les attaques contradictoires.
  4. Mettez en œuvre la protection de la confidentialité des données dans les étapes d’entraînement, de test et d’exécution des modèles.
  5. Appliquez des pratiques de modélisation des menaces et de codage sécurisé dans le cycle de vie du développement de l’IA.
  6. Effectuez la détection et la réponse aux menaces pour les applications et l’infrastructure d’IA.
  7. Évaluez et décidez de la maturité de l’IA grâce au cadre d’exigences IBM pour l’IA.
 
Auteur
IBM Data and AI Team