On entend par gouvernance de l’intelligence artificielle (IA) l’ensemble des processus, normes et garde-fous destinés à garantir la sécurité et l’éthique des systèmes et outils d’IA. Elle établit les cadres qui guident la recherche, le développement et l’application de l’IA pour assurer la sécurité, l’équité et le respect des droits humains.
Une gouvernance efficace de l’IA englobe des mécanismes de surveillance qui traitent des risques tels que les biais, la violation de la vie privée et l’utilisation abusive tout en favorisant l’innovation et la confiance. Une approche de la gouvernance de l’IA centrée sur l’éthique nécessite l’implication d’un large éventail de parties prenantes, notamment les développeurs, les utilisateurs, les décideurs politiques et les éthiciens de l’IA, afin de garantir que les systèmes liés à l’IA sont développés et utilisés dans le respect des valeurs de la société.
La gouvernance de l’IA répond aux défauts inhérents à l’élément humain dans la création et la maintenance de l’IA. Parce que l’IA est le produit d’un code hautement élaboré et du machine learning (ML) créé par des personnes, elle est sensible aux biais et aux erreurs humaines qui peuvent entraîner une discrimination et d’autres préjudices pour les individus.
La gouvernance fournit une approche structurée pour atténuer ces risques potentiels. Une telle approche peut inclure une politique d’IA, une réglementation et une gouvernance des données solides. Celles-ci permettent de s’assurer que les algorithmes de machine learning sont surveillés, évalués et mis à jour pour éviter les décisions erronées ou préjudiciables, et que les jeux de données sont bien entraînés et entretenus.
La gouvernance vise également à établir la surveillance nécessaire pour aligner les comportements de l’IA sur les normes éthiques et les attentes sociétales et pour se protéger contre les impacts indésirables potentiels.
La gouvernance de l’IA est essentielle pour atteindre un état de conformité, de confiance et d’efficacité dans le développement et l’application des technologies d’IA. Avec l’intégration croissante de l’IA dans les opérations organisationnelles et gouvernementales, son potentiel d’impact négatif est devenu plus visible.
Des faux pas très médiatisés, tels que l’incident du chatbot Tay, où un chatbot d’IA de Microsoft a acquis un comportement toxique à partir d’interactions publiques sur les réseaux sociaux, et les décisions de condamnation biaisées du logiciel COMPAS, ont mis en évidence le besoin d’une gouvernance rigoureuse pour prévenir les dommages et maintenir la confiance du public.
Ces exemples montrent que l’IA peut entraîner des dommages sociaux et éthiques importants sans surveillance appropriée, mettant l’accent sur l’importance de la gouvernance dans la gestion des risques associés à l’IA avancée. En fournissant des directives et des cadres d’exigences, la gouvernance de l’IA vise à équilibrer l’innovation technologique avec la sécurité, aidant à garantir que les systèmes d’IA ne violent pas la dignité ou les droits humains.
Prise de décision transparente et explicabilité sont également essentielles pour garantir l’utilisation responsable des systèmes d’IA et instaurer la confiance. Les systèmes d’IA prennent des décisions à tout moment, depuis le choix des publicités à diffuser jusqu’à l’approbation ou non d’un prêt. Il est essentiel de comprendre comment les systèmes d’IA prennent des décisions pour les tenir responsables de celles-ci et aider à s’assurer qu’ils les prennent de manière équitable et éthique.
De plus, la gouvernance de l’IA ne consiste pas seulement à aider à assurer une conformité ponctuelle, mais aussi à maintenir des normes éthiques au fil du temps. Les modèles d’IA peuvent dériver, entraînant des changements dans la qualité et la fiabilité des résultats. Les tendances actuelles en matière de gouvernance vont au-delà de la simple conformité légale et visent à garantir la responsabilité sociale de l’IA, ce qui permet de se prémunir contre les dommages financiers, juridiques et de réputation, tout en promouvant une croissance responsable de la technologie.
Des exemples de gouvernance de l’IA englobent une gamme de politiques, de cadres et de pratiques que les organisations et les gouvernements implémentent pour aider à garantir l’utilisation responsable des technologies d’IA. Ces exemples montrent comment la gouvernance de l’IA se produit dans différents contextes :
Règlement général sur la protection des données (RGPD) : le RGPD est un exemple de gouvernance de l’IA, en particulier dans le contexte de la protection et de la confidentialité des données personnelles. Bien qu’il ne soit pas exclusivement axé sur l’IA, bon nombre de ses dispositions sont très pertinentes pour les systèmes d’IA, en particulier ceux qui traitent les données personnelles des individus au sein de l’Union européenne.
Organisation de coopération et de développement économiques (OCDE) : les principes de l’IA de l’OCDE, adoptés par plus de 40 pays, soulignent la gestion responsable de l’IA digne de confiance, notamment la transparence, l’équité et la responsabilisation dans les systèmes d’IA.
Conseils d’éthique de l’IA professionnels : de nombreuses entreprises ont établi des conseils ou comités d’éthique pour superviser les initiatives d’IA, en s’assurant qu’elles respectent les normes éthiques et les valeurs sociétales. Par exemple, le Conseil de l’éthique de l’IA d’IBM lancé en 2019 examine de nouveaux produits et services d’IA et s’assure qu’ils respectent ses principes d’IA. Ces conseils mettent souvent à contribution des équipes transversales issues de milieux juridiques, techniques et politiques.
Dans une organisation de niveau entreprise, le PDG et la haute direction sont chargés de s’assurer que leur organisation applique une bonne gouvernance de l’IA tout au long du cycle de vie de l’IA. Les conseillers juridiques jouent un rôle essentiel dans l’évaluation et l’atténuation des risques juridiques, en garantissant que les applications de l’IA sont conformes aux lois et réglementations en vigueur.
Les équipes d’audit sont essentielles pour valider l’intégrité des données des systèmes d’IA et confirmer que les systèmes fonctionnent comme prévu sans introduire d’erreurs ou de biais. Le directeur financier supervise les implications financières, gère les coûts associés aux initiatives d’IA et atténue les risques financiers.
Cependant, la responsabilité de la gouvernance de l’IA ne repose pas sur un seul individu ou service. Il s’agit d’une responsabilité collective dans le cadre de laquelle chaque leader doit prioriser la responsabilité et aider à s’assurer que les systèmes d’IA sont utilisés de manière responsable et éthique au sein de l’organisation.
Le PDG et la haute direction sont responsables de définir la culture et le ton globaux de l’organisation. En donnant la priorité à une gouvernance responsable de l’IA, on envoie à tous les employés un message clair selon lequel chacun doit utiliser l’IA de manière responsable et éthique. Le PDG et la haute direction peuvent également investir dans la formation à la gouvernance de l’IA des employés, développer activement des politiques et des procédures internes et créer une culture de communication et de collaboration ouvertes.
La gouvernance de l’IA est essentielle pour gérer les progrès rapides de la technologie d’IA, en particulier avec l’émergence de l’IA générative. L’IA générative, qui comprend des technologies capables de créer de nouveaux contenus et de nouvelles solutions, telles que du texte, des images et du code, présente un vaste potentiel dans de nombreux cas d’utilisation.
De l’amélioration des processus créatifs dans la conception et les médias à l’automatisation des tâches de développement logiciel, l’IA générative transforme le fonctionnement des secteurs. Cependant, sa large applicabilité nécessite une gouvernance solide.
Les principes de la gouvernance de l’IA responsable sont essentiels pour que les organisations puissent se protéger et protéger leurs clients. Ces principes peuvent guider les organisations dans le développement et l’application éthiques des technologies d’IA :
Fin 2023, la Maison-Blanche a publié un décret pour aider à garantir la sûreté et la sécurité de l’IA. Cette stratégie complète fournit un cadre d’exigences pour établir de nouvelles normes afin de gérer les risques inhérents à la technologie d’IA. Les nouvelles normes du gouvernement étasunien en matière de sûreté et de sécurité de l’IA illustrent la manière dont les gouvernements abordent cette question très sensible.
Alors que les réglementations et les forces du marché uniformisent de nombreux indicateurs de gouvernance, les organisations doivent toujours déterminer comment équilibrer au mieux les mesures de leur entreprise. La mesure de l’efficacité de la gouvernance de l’IA peut varier d’une organisation à l’autre ; chaque organisation doit décider des domaines d’intervention qu’elle doit privilégier. Avec des domaines d’intérêt tels que la qualité des données, la sécurité des modèles, l’analyse coût-valeur, la surveillance des biais, la responsabilité individuelle, l’audit continu et la capacité d’adaptation en fonction du domaine de l’organisation, il ne s’agit pas d’une décision identique pour toutes les entreprises.
La gouvernance de l’IA n’a pas de « niveaux » suivant des normes universelles comme la cybersécurité peut par exemple avoir des niveaux définis de réponse aux menaces. Au lieu de cela, la gouvernance de l’IA possède des approches et des cadres structurés développés par diverses entités que les organisations peuvent adopter tels quels ou adapter à leurs besoins spécifiques.
Les organisations peuvent utiliser plusieurs cadres d’exigences et directives pour développer leurs pratiques de gouvernance. Parmi les cadres les plus utilisés, citons le cadre de gestion des risques liés à l’IA du NIST, les Principes de l’OCDE sur l’intelligence artificielle et les Lignes directrices en matière d’éthique pour une IA digne de confiance de la Commission européenne. Ces cadres fournissent des directives sur un éventail de sujets, notamment la transparence, la responsabilité, l’équité, la protection de la vie privée, la sécurité et la sûreté.
Les niveaux de gouvernance peuvent varier en fonction de la taille de l’organisation, de la complexité des systèmes d’IA utilisés et de l’environnement réglementaire dans lequel l’organisation opère.
Un aperçu de ces approches :
Il s’agit de l’approche la moins intensive de la gouvernance basée sur les valeurs et les principes de l’organisation. Il peut y avoir des processus informels, tels que des conseils d’examen éthique ou des comités internes, mais il n’existe pas de structure ou de cadre formel pour la gouvernance de l’IA.
Elle est plus avancée par rapport à la gouvernance informelle et implique le développement de politiques et de procédures spécifiques pour le développement et l’utilisation de l’IA. Ce type de gouvernance est souvent développé en réponse à des défis ou des risques spécifiques et peut ne pas être complet ni systématique.
Il s’agit du plus haut niveau de gouvernance et implique le développement d’un cadre complet de gouvernance de l’IA. Ce cadre reflète les valeurs et les principes de l’organisation et s’aligne sur les lois et réglementations pertinentes. Les cadres de gouvernance formelle incluent généralement l’évaluation des risques, l’examen éthique et les processus de supervision.
Le concept de gouvernance de l’IA devient de plus en plus vital à mesure que l’automatisation, pilotée par l’IA, devient prépondérante dans des secteurs allant des soins de santé à la finance, en passant par les transports et les services publics. Les capacités d’automatisation de l’IA peuvent considérablement améliorer l’efficacité, la prise de décision et l’innovation, mais elles présentent également des défis liés à la responsabilité, à la transparence et aux considérations éthiques.
La gouvernance de l’IA consiste à établir des structures de contrôle robustes contenant des politiques, des directives et des cadres d’exigences pour relever ces défis. Elle consiste à configurer des mécanismes pour surveiller et évaluer continuellement les systèmes d’IA, en veillant à ce qu’ils respectent les normes éthiques établies et les réglementations légales.
Les structures de gouvernance efficaces dans l’IA sont multidisciplinaires et impliquent des parties prenantes de divers domaines, notamment la technologie, le droit, l’éthique et le commerce. À mesure que les systèmes d’IA deviennent plus sophistiqués et s’intègrent dans des aspects critiques de la société, le rôle de la gouvernance de l’IA dans l’orientation et la définition de la trajectoire du développement de l’IA et de son impact sociétal devient de plus en plus crucial.
Les bonnes pratiques de gouvernance de l’IA impliquent une approche allant au-delà de la simple conformité pour englober un système plus robuste de surveillance et de gestion des applications d’IA. Pour les entreprises, la solution de gouvernance de l’IA doit permettre une surveillance et un contrôle généraux des systèmes d’IA. Voici un exemple de feuille de route à envisager :
Tableau de bord visuel : utilisez un tableau de bord qui fournit des mises à jour en temps réel sur l’intégrité et le statut des systèmes d’IA, offrant une vue d’ensemble claire pour des évaluations rapides.
Indicateurs d’intégrité : mettez en place un score d’intégrité global pour les modèles IA en utilisant des indicateurs intuitifs et faciles à comprendre pour simplifier le suivi.
Surveillance automatisée : utilisez des systèmes de détection automatique pour détecter les biais, les déviations, les performances et les anomalies afin de garantir que les modèles fonctionnent correctement et de manière éthique.
Alertes de performance : configurez des alertes pour l’écart entre un modèle et ses paramètres de performance prédéfinis, ce qui permet des interventions rapides.
Indicateurs personnalisés : définissez des indicateurs personnalisés qui s’alignent sur les indicateurs clés de performance (KPI) et les seuils de l’organisation pour aider à vous assurer que les résultats de l’IA contribuent aux objectifs de l’entreprise.
Pistes d’audit : conservez des journaux et des pistes d’audit facilement accessibles pour responsabiliser et faciliter les examens des décisions et comportements des systèmes d’IA.
Compatibilité des outils open source : choisissez des outils open source compatibles avec diverses plateformes de développement de machine learning pour bénéficier de la flexibilité et du soutien de la communauté.
Intégration fluide : assurez-vous que la plateforme de gouvernance de l’IA s’intègre de façon fluide à l’infrastructure existante, y compris aux bases de données et aux écosystèmes logiciels, pour éviter les silos et permettre des workflows efficaces.
En adhérant à ces pratiques, les organisations peuvent établir un solide cadre de gouvernance de l’IA qui soutient un développement, un déploiement et une gestion responsables de l’IA, aidant à garantir la conformité et l’alignement des systèmes d’IA avec les normes éthiques et les objectifs organisationnels.
Les pratiques et réglementations de gouvernance de l’IA ont été adoptées par plusieurs pays pour prévenir les préjugés et la discrimination. Il est important de se rappeler que la réglementation est toujours en évolution et que les organisations qui gèrent des systèmes d’IA complexes doivent rester attentives à l’évolution des cadres légaux régionaux.
La loi européenne sur l’intelligence artificielle (ou EU AI Act) vise à encadrer le développement ou l’utilisation de l’intelligence artificielle (IA) au sein de l’Union européenne (UE). Cette loi adopte une approche réglementaire axée sur les risques, appliquant des règles différentes aux systèmes d’IA selon le niveau de risque qu’ils présentent.
Considérée comme le premier cadre réglementaire complet au monde pour l'IA, la loi sur l’IA de l'UE interdit certaines utilisations de l'IA et impose des exigences strictes en matière de gouvernance, de gestion des risques et de transparence pour d'autres.
La loi établit également des règles pour les modèles d’intelligence artificielle à usage général, tels que le modèle Granite d’IBM et le modèle Llama 3 de Meta, qui est un modèle de fondation open source. En cas de non-conformité, les sanctions peuvent varier de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires annuel mondial à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, selon la gravité de l’infraction.
La SR-11-71 est la norme réglementaire étasunienne de gouvernance des modèles pour une gouvernance efficace et solide des modèles dans le secteur bancaire.1 La réglementation exige que les responsables bancaires appliquent des initiatives de gestion des risques de modèles à l’échelle de l’entreprise et maintiennent un inventaire des modèles utilisés, en cours de développement ou récemment retirés.
Les dirigeants des institutions doivent également prouver que leurs modèles atteignent l’objectif commercial pour lequel ils ont été conçus, qu’ils sont à jour et n’ont pas dérivé. Le développement et la validation d’un modèle doivent permettre à toute personne qui n’est pas familière avec ce modèle de comprendre son fonctionnement, ses limites et ses principales hypothèses.
La Directive sur la prise de décisions automatisée du Canada décrit comment le gouvernement du pays utilise l’IA pour guider les décisions dans plusieurs services.2 La directive utilise un système de notation pour évaluer l’intervention humaine, l’évaluation par les pairs, le suivi et la planification d’urgence nécessaires à un outil d’IA conçu pour servir les citoyens.
Les organisations qui créent des solutions d’IA ayant obtenu un score élevé doivent procéder à deux évaluations indépendantes par des pairs, informer le public dans un langage simple, mettre au point un dispositif de sécurité pour l’intervention humaine et mettre en place des cours de formation récurrents pour le système. Alors que la Directive canadienne sur la prise de décisions automatisée est un guide pour le développement de l’IA dans le pays, la réglementation n’affecte pas directement les entreprises de la même manière que la SR-11-7 aux États-Unis.
En avril 2021, la Commission européenne a présenté son train de mesures sur l’IA, y compris des déclarations sur la promotion d’une approche européenne de l’excellence, de la confiance et d’une proposition de cadre juridique sur l’IA.3
Les déclarations précisent que si la plupart des systèmes d’IA entrent dans la catégorie des « risques minimes », les systèmes d’IA identifiés comme présentant un « risque élevé » devront se conformer à des exigences plus strictes et les systèmes considérés comme présentant un « risque inacceptable » seront interdits. Les organisations doivent prêter une attention particulière à ces règles sous peine d’amendes.
En 2023, la Chine a publié ses « Mesures provisoires pour l’administration des services d’intelligence artificielle générative ». En vertu de cette loi, la fourniture et l’utilisation de services d’IA générative doivent « respecter les droits et intérêts légitimes d’autrui » et sont tenues de « ne pas mettre en danger la santé physique et mentale d’autrui, et ne pas porter atteinte aux droits à l’image, à la réputation, à l’honneur, à la vie privée et aux droits à la protection des données personnelles d’autrui ».
D’autres pays de la région Asie-Pacifique ont publié plusieurs principes et lignes directrices pour régir l’IA. En 2019, le gouvernement fédéral de Singapour a publié un cadre avec des lignes directrices pour traiter les questions d’éthique de l’IA dans le secteur privé. Plus récemment, en mai 2024, il a publié un cadre de gouvernance pour l’IA générative. L’Inde, le Japon, la Corée du Sud et la Thaïlande étudient également des lignes directrices et une législation pour la gouvernance de l’IA.3
Découvrez l’impact du règlement européen sur l’IA pour les entreprises, comment vous préparer, limiter les risques et concilier réglementation et innovation.
Apprenez-en plus sur les nouveaux défis de l’IA générative, la nécessité de gouverner les modèles d’IA et de ML et les étapes à suivre pour créer un cadre des exigences fiable, transparent et explicable.
Découvrez comment favoriser des pratiques éthiques et conformes grâce à un portefeuille de produits d’IA dédiés aux modèles d’IA générative.
Avec watsonx.governance, apprenez à mieux comprendre comment assurer l’équité, gérer les dérives, maintenir la qualité et améliorer l’explicabilité.
Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.
Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.
Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.
1 « SR 11-7: Guidance on model risk management. », Conseil d’administration du Federal Reserve System, Washington, D.C, Division de supervision et réglementation bancaires, 4 avril 2011.
2 « Canada’s new federal directive makes ethical AI a national issue. » Digital, 8 mars 2019.
3 « Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology », Sidley, 16 août 2024.