Alors que les entreprises ont de plus en plus recours à l’intelligence artificielle (IA), les gens se demandent dans quelle mesure les préjugés humains ont pénétré les systèmes d’IA. Les exemples de préjugés liés à l’IA dans le monde réel nous montrent que lorsque des données et des algorithmes discriminants sont intégrés dans des modèles IA, ces derniers déploient les préjugés à grande échelle et amplifient les effets négatifs qui en résultent.
Les entreprises cherchent par tous les moyens à garantir la partialité de l’IA, non seulement pour des raisons d’équité, mais aussi pour obtenir de meilleurs résultats. Cependant, il en va de même des préjugés raciaux et sexistes ancrés dans la société comme des biais de l’IA : ils ne sont pas faciles à éliminer.
Dans l’article « What AI can and can’t do (yet) for your business » (Ce que l’IA peut et ne peut pas (encore) faire pour votre entreprise), les auteurs Michael Chui, James Manyika et Mehdi Miremadi de McKinsey ont noté : « Ces biais ont tendance à rester ancrés, car les reconnaître et prendre des mesures pour les corriger nécessite une maîtrise approfondie des techniques de science des données, ainsi qu’une meilleure compréhension des forces sociales existantes, y compris de la collecte de données. Dans l’ensemble, l’élimination des biais s’avère l’un des obstacles les plus redoutables à ce jour, et certainement l’un des plus difficiles à surmonter sur le plan sociétal. »
Les exemples de biais de l’IA tirés de la vie réelle fournissent aux entreprises des informations utiles sur la manière de les identifier et de les traiter. En examinant ces exemples d’un œil critique et les succès obtenus pour les surmonter, les data scientists peuvent élaborer une feuille de route pour les identifier et les éviter dans leurs modèles de machine learning.
Les biais de l’IA, également appelés biais de machine learning ou biais d’algorithme, désignent les systèmes d’IA qui produisent des résultats biaisés reflétant et perpétuant les préjugés humains au sein d’une société, y compris les inégalités sociales parmi les générations précédentes et actuelles. Les biais peuvent se loger dans les données d’entraînement initiales, dans l’algorithme ou dans les prédictions générées par l’algorithme.
Lorsque les préjugés ne sont pas traités, ils entravent la capacité des individus à participer à l’économie et à la société. Ils réduisent également le potentiel de l’IA. Les entreprises ne peuvent pas tirer profit de systèmes qui produisent des résultats faussés et suscitent la méfiance des personnes de couleur, des femmes, des personnes handicapées, de la communauté LGBTQ ou d’autres groupes de personnes marginalisées.
L’élimination des biais de l’IA nécessite d’examiner en profondeur les ensembles de données, les algorithmes de machine learning et d’autres éléments des systèmes IA afin d’identifier les sources potentielles.
Comme les systèmes IA apprennent à prendre des décisions à partir des données d’entraînement, il est essentiel d’évaluer les ensembles de données pour détecter la présence de biais. L’une des méthodes consiste à examiner des échantillons de données pour les groupes surreprésentés ou sous-représentés dans les données d’entraînement. Par exemple, les données d’entraînement pour un algorithme de reconnaissance faciale dans lesquelles les personnes de race blanche sont surreprésentées peuvent produire des erreurs lors de la reconnaissance faciale des personnes de couleur. De même, les données de sécurité qui contiennent des informations recueillies dans des zones géographiques où les ethnies de couleur prédominent peuvent créer un préjugé racial dans les outils IA utilisés par la police.
Un biais peut également résulter de la manière dont les données d’entraînement sont étiquetées. Par exemple, les outils de recrutement basés sur l’IA qui utilisent un étiquetage incohérent ou qui excluent ou surreprésentent certaines caractéristiques risquent d’éliminer les candidats qualifiés.
L’utilisation de données d’entraînement erronées peut donner lieu à des algorithmes qui produisent des erreurs de façon répétée, des résultats partiaux, voire une amplification du biais inhérent à ces données incorrectes. Les biais algorithmiques peuvent également provenir d’erreurs de programmation, par exemple lorsqu’un développeur pondère de façon inéquitable certains facteurs dans le processus décisionnel d’un algorithme en fonction de ses propres préjugés conscients ou inconscients. De même, l’algorithme peut utiliser des indicateurs comme les revenus ou le vocabulaire pour discriminer involontairement des personnes d’une certaine race ou d’un certain sexe.
Lorsque les personnes traitent des informations et émettent des jugements, elles sont inévitablement influencées par leurs expériences et préférences. Par conséquent, elles peuvent introduire ces préjugés dans les systèmes IA au niveau de la sélection des données ou dans la manière dont elles effectuent les pondérations. Les biais cognitifs peuvent ainsi conduire à favoriser les ensembles de données recueillies auprès des Américains plutôt que les échantillons d’un éventail de populations à travers le monde.
Selon le NIST, cette source de biais est plus courante qu’on ne l‘imagine. Dans son rapport Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), le NIST a noté que « les facteurs humains et systémiques, institutionnels et sociétaux sont également des sources importantes de biais de l’IA et sont actuellement négligés. Pour relever ce défi, il faudra prendre en compte toutes les formes de biais. Cela signifie élargir notre perspective au-delà du pipeline de machine learning pour étudier comment cette technologie est à la fois créée au sein de notre société et l’influence. »
Alors que la société prend de plus en plus conscience du mode de fonctionnement de l’IA et des risques de partialité, les entreprises ont découvert de nombreux exemples notoires de biais de l’IA dans un large éventail de cas d’utilisation.
L’identification et le traitement des biais dans l’IA commence par la gouvernance de l’IA, c’est-à-dire la capacité de diriger, de gérer et de surveiller les activités d’IA au sein de l’entreprise. En pratique, la gouvernance de l’IA crée un ensemble de politiques, de pratiques et de cadres d’exigences pour guider le développement responsable et l’utilisation des technologies d’IA. Lorsqu’elle est bien menée, la gouvernance de l’IA garantit un équilibre entre les avantages pour les entreprises, les clients, les employés et la société dans son ensemble.
Grâce aux politiques de gouvernance de l’IA, les entreprises peuvent mettre en place les pratiques suivantes :
Une bonne combinaison de technologies peut être cruciale pour une stratégie efficace de gouvernance des données et de l’IA, soutenue par deux éléments clés : une architecture de données moderne et une plateforme d’IA digne de confiance. L’orchestration des politiques au sein d’une architecture data fabric est un excellent outil qui peut simplifier les processus complexes d’audit de l’IA. En intégrant l’audit de l’IA et les processus connexes dans les politiques de gouvernance de votre architecture de données, votre entreprise est mieux à même de comprendre les domaines qui nécessitent une inspection continue.
Chez IBM Consulting, nous aidons nos clients à mettre en place un processus d’évaluation des biais et d’autres domaines. À mesure que l’adoption de l’IA se développe et que les innovations évoluent, les directives de sécurité évoluent également, comme c’est le cas pour toutes les technologies intégrées à la structure d’une entreprise au fil des ans. Nous vous présentons ci-dessous quelques bonnes pratiques d’IBM pour aider les organisations à se préparer au déploiement sécurisé de l’IA dans leurs environnements :
Découvrez ce que watson.governance peut faire pour vous