Que ce soit pour les petites ou les grandes entreprises, l'intelligence artificielle (IA) est associée à des termes aussi stimulants qu'innovation, opportunités et avantage concurrentiel. Mais il ne faut pas oublier la conformité.
Pas moins de 73 % des entreprises utilisent déjà l'IA analytique et générative, et 72 % des PDG les plus performants considèrent que l'avantage concurrentiel dépend de qui utilise l'IA la plus avancée.1
Cependant, cet essor de l’utilisation de l’IA et son potentiel fascinant suscitent des inquiétudes croissantes quant à l’éthique et à la sécurité des technologies basées sur l’IA. Si un développement défectueux conduit à des algorithmes biaisés qui perpétuent la discrimination (dans le recrutement, l’application de la loi ou les décisions financières, par exemple), les conséquences peuvent être désastreuses et durables.
De ce fait, les entreprises, les pays et les décideurs politiques réfléchissent à la gouvernance de l'IA et établissent de nouvelles règles pour l'utilisation et le développement de l'IA. Penchons-nous sur la conformité en IA : son importance pour les entreprises et les étapes à franchir pour rester conformes dans un paysage réglementaire en constante évolution.
La conformité en matière d'IA fait référence aux décisions et pratiques qui permettent aux entreprises de se conformer aux lois et réglementations régissant l'utilisation des systèmes d'IA. Ces normes comprennent les lois, les règlements et les politiques internes visant à assurer le développement responsable des modèles d'IA et de leurs algorithmes au sein des organisations.
Cependant, les processus de conformité en IA vont au-delà du respect des seules exigences légales. Ils visent également à renforcer la confiance avec les parties prenantes et à promouvoir la transparence et l'équité dans le processus décisionnel. Ils sont également indispensables pour la sécurité. Compte tenu du fait que l'IA peut être exploitée par des acteurs malveillants, de solides mesures de cybersécurité et des stratégies de gestion des risques sont au cœur de la conformité en IA.
Les processus de conformité en matière d’IA permettent aux entreprises d’éviter les risques financiers, juridiques et d’atteinte à la réputation associés à l’utilisation des outils d’IA.
L'utilisation accrue de l'IA par les entreprises augmente le risque de rencontrer des situations où la technologie prend des tournures inattendues ou erronées. Par exemple, une entreprise a abandonné son outil de recrutement IA après avoir constaté qu'il perpétuait la discrimination sexuelle en raison des données utilisées pour son entraînement.2 Des enquêtes ont par ailleurs révélé que certaines demandes de prêt fondées sur des algorithmes peuvent conduire à une discrimination à l'égard des candidats de couleur.3
Ces problèmes suscitent de vives inquiétudes et entraînent une vague d'efforts visant à normaliser le développement et l'utilisation de l'IA par les entreprises. En 2024, l’Union européenne est devenue le premier grand marché à imposer des règles concernant l’IA avec le lancement de la loi sur l’IA de l’UE. D'autres juridictions, notamment les États-Unis et la Chine, développent également leurs propres réglementations en matière d'IA.
La non-conformité peut vous coûter cher. Le Règlement général sur la protection des données (RGPD) de l'UE prévoit des amendes pouvant aller jusqu'à 20 millions d'euros ou 4 % de leur chiffre d'affaires annuel mondial pour les entreprises, le montant le plus élevé étant retenu. Aux États-Unis, la Federal Trade Commission (FTC) est habilitée à prendre des mesures d'exécution contre les entreprises pour des violations liées à l'IA, telles que l'utilisation d'algorithmes de machine learning biaisés.4
La conformité est également essentielle pour protéger la réputation de la marque. Une enquête KPMG de 2024 a révélé que 78 % des consommateurs estiment que les organisations qui utilisent l'IA ont la responsabilité de contribuer à garantir son développement éthique.5 Toute défaillance en matière de conformité peut nuire gravement à l'activité de l'entreprise et ternir durablement son image.
En veillant à ce que leurs systèmes d’IA soient fiables, transparents et responsables, les entreprises favorisent l’innovation, améliorent leur efficacité et obtiennent un avantage concurrentiel sur le marché.
Si la conformité réglementaire consistait à répondre à un ensemble d’exigences clair et unique, la voie à suivre serait simple. La réalité est que les technologies de l’IA évoluent rapidement, au même titre que les diverses directives qui les régissent.
La technologie elle-même complique les activités de conformité. La compréhension et l’interprétation des modèles et des algorithmes d’IA ne sont pas faciles techniquement, notamment en raison du fonctionnement en temps réel de nombreux systèmes d’IA. Il peut être difficile de suivre l’évolution des réglementations à cette vitesse, et la rapidité des avancées de l’IA oblige les entreprises à adapter constamment leurs programmes de conformité.
Les pays sont en train d'édicter des normes pour l'IA qui pourraient profondément modifier la gouvernance de cette technologie au niveau mondial. Au-delà de ces lois et règlements spécifiques à l'IA, les entreprises et les fournisseurs d'IA doivent également se conformer à un ensemble de règles de plus en plus complexe en matière de protection des données, de discrimination et de cybersécurité. Pour compliquer encore les choses, ces exigences ne s'appliquent parfois pas seulement aux entreprises et aux fournisseurs d'IA opérant dans leur région spécifique, mais également à toutes les entreprises ayant des activités dans la région.
Les principales réglementations dans le monde :
Le RGPD européen fixe des normes spécifiques pour la protection des données, l'analyse des données et l'utilisation des données personnelles. La loi sur l'IA de l'UE, considérée comme le premier cadre réglementaire complet au monde pour l'IA, interdit certaines utilisations de l'IA et impose des exigences de gestion des risques et de transparence pour d'autres. Cette loi suit une approche de la réglementation de l'IA fondée sur le risque, avec des mandats plus stricts pour les systèmes à haut risque.
Aux États-Unis, il n'existe pas encore de réglementation complète, mais différentes exigences de conformité existent au niveau fédéral et étatique. Par exemple, le décret exécutif sur le maintien du leadership américain dans l'intelligence artificielle établit des lignes directrices pour le développement et l'utilisation de l'IA. Les lois propres à certains secteurs, telles que le Health Insurance Portability and Accountability Act (HIPAA) ou la loi sur l'équité dans les rapports de crédit (FCRA), peuvent également s'appliquer à l'IA.
La Chine a été pionnière en matière de réglementation de l'IA générative avec l'adoption en août 2023 des « Mesures provisoires pour la gestion des services d'intelligence artificielle générative ». Ces mesures incluent des normes de contenu et des règles concernant la protection des données, l'étiquetage et l'octroi de licences pour l'IA générative. La Chine réglemente spécifiquement les algorithmes de recommandation IA et les technologies de synthèse profonde, notamment les deepfakes.
Si la conformité de l’IA est essentielle dans tous les secteurs, elle est particulièrement cruciale dans ces activités :
L'IA trouve des applications dans le secteur de la santé, notamment pour le diagnostic des maladies, la découverte de médicaments et la médecine personnalisée. Le non-respect de réglementations comme la loi américaine HIPAA (Health Insurance Portability and Accountability Act), qui protège la vie privée des patients, peut avoir des conséquences financières ou juridiques. De plus, les algorithmes biaisés ou mal entraînés peuvent entraîner des erreurs de diagnostic ou des plans de traitement inadéquats pour les patients.
L'IA offre de nombreuses applications dans le domaine financier, notamment la détection des fraudes, l'évaluation des risques et la lutte contre le blanchiment d'argent. Cependant, ces applications d'IA doivent respecter des réglementations telles que la loi américaine sur l'équité dans les rapports de crédit (FCRA) et la directive européenne sur les marchés d'instruments financiers (MiFID II). Les efforts de conformité en matière d'IA visent à éviter que les algorithmes ne fassent preuve de discrimination dans les demandes de prêt et autres décisions clés.
L'automatisation des tâches routinières, la rationalisation du tri des CV, l'évaluation des candidats et le suivi des employés sont de plus en plus assurées par les professionnels des RH grâce à des outils d'IA. Mais si les algorithmes sont entraînés sur des données biaisées ou inadéquates, ils peuvent entraîner des biais injustes et potentiellement illégaux. Le respect des lois anti-discrimination et des réglementations sur la protection des données contribue à garantir la transparence, l'équité et la confidentialité.
Les entreprises prennent de plus en plus conscience de la nécessité de se conformer aux exigences réglementaires actuelles en matière d'IA et de se préparer aux futures règles. Une enquête menée auprès d'experts internationaux en conformité et en risque a révélé que plus de la moitié des personnes interrogées s'inquiétaient de la confidentialité des données, de la transparence algorithmique et de l'utilisation abusive ou de l'interprétation erronée de l'intelligence artificielle.6
Une autre étude menée auprès de dirigeants d'entreprise a révélé que 80 % d'entre eux prévoient d'accroître leurs investissements dans une approche responsable de l'intelligence artificielle afin d'instaurer la confiance dans leurs modèles.7 Par conséquent, de nombreuses entreprises prennent des mesures proactives pour contribuer à assurer la conformité IA.
Certaines entreprises établissent des cadres qui définissent les politiques, procédures et responsabilités internes pour le développement et l'utilisation éthique de l'IA. Par exemple, Microsoft a publié sa norme d'IA responsable, qui comprend la réalisation d'évaluations régulières des risques, la mise en œuvre de mesures de protection des données et la priorité accordée à la transparence et à la responsabilité dans la prise de décision.8 Et les principes d'IA de Google, mis à jour en 2023, soulignent l'importance de l'équité, de la transparence et de la confidentialité dans le développement de l'IA.9
Les entreprises collaborent également activement avec les régulateurs et les acteurs du secteur pour se tenir informées des modifications réglementaires et des questions de conformité. Une enquête IBM auprès de chefs d’entreprise a révélé que 74 % d’entre eux prévoient de participer à des discussions avec leurs pairs ou de collaborer avec des décideurs politiques sur l’intelligence artificielle. Ces efforts aident les entreprises à se préparer aux nouvelles réglementations et à participer à l’élaboration des futures directives.
Pour rationaliser les efforts de conformité, les entreprises investissent dans divers outils et technologies de conformité de l’IA. Par exemple, les outils d’IA explicable (XAI) les aident à comprendre et à interpréter les décisions prises par les modèles d’IA, tandis que les solutions de gouvernance de l’IA fournissent des fonctionnalités de surveillance et d’audit en temps réel. Des produits de gouvernance, tels que IBM watsonx.governance, proposent des outils pour maintenir la conformité avec les réglementations, évaluer les risques et gérer l’évolution des modèles.
L'évolution constante des technologies d'IA s'accompagne d'une augmentation des risques et des défis liés à leur utilisation. La clé réside dans l'adoption d'une approche proactive, c'est-à-dire investir dans les ressources, l'expertise et les technologies nécessaires pour développer et mettre en œuvre des cadres de gouvernance de l'IA robustes. Cela nécessite également de favoriser une culture de transparence, de responsabilité et de confiance dans le développement et l'utilisation des systèmes d'IA. La conformité IA, placée au cœur des préoccupations, permet aux entreprises de limiter les risques et de maximiser les bénéfices de l'IA.
1 PwC’s 2024 US Responsible AI Survey, PricewaterhouseCoopers, avril 2024
3 The secret bias hidden in mortgage-approval algorithms, Associated Press, août 2021
4 California company settles FTC allegations it deceived consumers about use of facial recognition in photo storage app, Federal Trade Commission, janvier 2021
5 KPMG Generative AI Consumer Trust Survey, KPMG, janvier 2024
6 How can Artificial Intelligence transform risk and compliance ?, Moody’s, février 2024
7 IA : des exigences règlementaires à l'avantage concurrentiel, Accenture, juin 2022
8 Microsoft’s Responsible AI Standard, Microsoft, juin 2022
9 Google AI : nos principes, Google, mars 2023
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Découvrez comment la gouvernance de l’IA peut contribuer à renforcer la confiance de vos employés dans l’IA, à accélérer l’adoption et l’innovation, et à améliorer la confiance des clients.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.