My IBM Se connecter S’abonner

Qu’est-ce que la gouvernance de l’IA ?

10 octobre 2024

Auteurs

Tim Mucci

Writer

Gather

Cole Stryker

Editorial Lead, AI Models

Gather

Qu’est-ce que la gouvernance de l’IA ?

On entend par gouvernance de l’intelligence artificielle (IA) l’ensemble des processus, normes et garde-fous destinés à garantir la sécurité et l’éthique des systèmes et outils d’IA. Elle établit les cadres qui guident la recherche, le développement et l’application de l’IA pour assurer la sécurité, l’équité et le respect des droits humains.

Une gouvernance efficace de l’IA englobe des mécanismes de surveillance qui traitent des risques tels que les biais, la violation de la vie privée et l’utilisation abusive tout en favorisant l’innovation et la confiance. Une approche de la gouvernance de l’IA centrée sur l’éthique nécessite l’implication d’un large éventail de parties prenantes, notamment les développeurs, les utilisateurs, les décideurs politiques et les éthiciens de l’IA, afin de garantir que les systèmes liés à l’IA sont développés et utilisés dans le respect des valeurs de la société.

La gouvernance de l’IA répond aux défauts inhérents à l’élément humain dans la création et la maintenance de l’IA. Parce que l’IA est le produit d’un code hautement élaboré et du machine learning (ML) créé par des personnes, elle est sensible aux biais et aux erreurs humaines qui peuvent entraîner une discrimination et d’autres préjudices pour les individus.

La gouvernance fournit une approche structurée pour atténuer ces risques potentiels. Une telle approche peut inclure une politique d’IA, une réglementation et une gouvernance des données solides. Celles-ci permettent de s’assurer que les algorithmes de machine learning sont surveillés, évalués et mis à jour pour éviter les décisions erronées ou préjudiciables, et que les jeux de données sont bien entraînés et entretenus.

La gouvernance vise également à établir la surveillance nécessaire pour aligner les comportements de l’IA sur les normes éthiques et les attentes sociétales et pour se protéger contre les impacts indésirables potentiels.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets.

Pourquoi la gouvernance de l’IA est-elle importante ?

La gouvernance de l’IA est essentielle pour atteindre un état de conformité, de confiance et d’efficacité dans le développement et l’application des technologies d’IA. Avec l’intégration croissante de l’IA dans les opérations organisationnelles et gouvernementales, son potentiel d’impact négatif est devenu plus visible.

Des faux pas très médiatisés, tels que l’incident du chatbot Tay, où un chatbot d’IA de Microsoft a acquis un comportement toxique à partir d’interactions publiques sur les réseaux sociaux, et les décisions de condamnation biaisées du logiciel COMPAS, ont mis en évidence le besoin d’une gouvernance rigoureuse pour prévenir les dommages et maintenir la confiance du public.

Ces exemples montrent que l’IA peut entraîner des dommages sociaux et éthiques importants sans surveillance appropriée, mettant l’accent sur l’importance de la gouvernance dans la gestion des risques associés à l’IA avancée. En fournissant des directives et des cadres d’exigences, la gouvernance de l’IA vise à équilibrer l’innovation technologique avec la sécurité, aidant à garantir que les systèmes d’IA ne violent pas la dignité ou les droits humains.

Prise de décision transparente et explicabilité sont également essentielles pour garantir l’utilisation responsable des systèmes d’IA et instaurer la confiance. Les systèmes d’IA prennent des décisions à tout moment, depuis le choix des publicités à diffuser jusqu’à l’approbation ou non d’un prêt. Il est essentiel de comprendre comment les systèmes d’IA prennent des décisions pour les tenir responsables de celles-ci et aider à s’assurer qu’ils les prennent de manière équitable et éthique.

De plus, la gouvernance de l’IA ne consiste pas seulement à aider à assurer une conformité ponctuelle, mais aussi à maintenir des normes éthiques au fil du temps. Les modèles d’IA peuvent dériver, entraînant des changements dans la qualité et la fiabilité des résultats. Les tendances actuelles en matière de gouvernance vont au-delà de la simple conformité légale et visent à garantir la responsabilité sociale de l’IA, ce qui permet de se prémunir contre les dommages financiers, juridiques et de réputation, tout en promouvant une croissance responsable de la technologie.

AI Academy

Confiance, transparence et gouvernance dans l’IA

La confiance est sans doute le sujet dominant dans le domaine de l’intelligence artificielle. C’est aussi un sujet en tous points passionnant. Nous aborderons des questions telles que les hallucinations, les biais et les risques, et partagerons les étapes à suivre pour adopter l’IA de manière éthique, responsable et équitable.

Exemples de gouvernance de l’IA

Des exemples de gouvernance de l’IA englobent une gamme de politiques, de cadres et de pratiques que les organisations et les gouvernements implémentent pour aider à garantir l’utilisation responsable des technologies d’IA. Ces exemples montrent comment la gouvernance de l’IA se produit dans différents contextes :

Règlement général sur la protection des données (RGPD) : le RGPD est un exemple de gouvernance de l’IA, en particulier dans le contexte de la protection et de la confidentialité des données personnelles. Bien qu’il ne soit pas exclusivement axé sur l’IA, bon nombre de ses dispositions sont très pertinentes pour les systèmes d’IA, en particulier ceux qui traitent les données personnelles des individus au sein de l’Union européenne.

Organisation de coopération et de développement économiques (OCDE) : les principes de l’IA de l’OCDE, adoptés par plus de 40 pays, soulignent la gestion responsable de l’IA digne de confiance, notamment la transparence, l’équité et la responsabilisation dans les systèmes d’IA.

Conseils d’éthique de l’IA professionnels : de nombreuses entreprises ont établi des conseils ou comités d’éthique pour superviser les initiatives d’IA, en s’assurant qu’elles respectent les normes éthiques et les valeurs sociétales. Par exemple, le Conseil de l’éthique de l’IA d’IBM lancé en 2019 examine de nouveaux produits et services d’IA et s’assure qu’ils respectent ses principes d’IA. Ces conseils mettent souvent à contribution des équipes transversales issues de milieux juridiques, techniques et politiques.  

Qui supervise la gouvernance responsable de l’IA ?

Dans une organisation de niveau entreprise, le PDG et la haute direction sont chargés de s’assurer que leur organisation applique une bonne gouvernance de l’IA tout au long du cycle de vie de l’IA. Les conseillers juridiques jouent un rôle essentiel dans l’évaluation et l’atténuation des risques juridiques, en garantissant que les applications de l’IA sont conformes aux lois et réglementations en vigueur. 

Les équipes d’audit sont essentielles pour valider l’intégrité des données des systèmes d’IA et confirmer que les systèmes fonctionnent comme prévu sans introduire d’erreurs ou de biais. Le directeur financier supervise les implications financières, gère les coûts associés aux initiatives d’IA et atténue les risques financiers. 

Cependant, la responsabilité de la gouvernance de l’IA ne repose pas sur un seul individu ou service. Il s’agit d’une responsabilité collective dans le cadre de laquelle chaque leader doit prioriser la responsabilité et aider à s’assurer que les systèmes d’IA sont utilisés de manière responsable et éthique au sein de l’organisation.

Le PDG et la haute direction sont responsables de définir la culture et le ton globaux de l’organisation. En donnant la priorité à une gouvernance responsable de l’IA, on envoie à tous les employés un message clair selon lequel chacun doit utiliser l’IA de manière responsable et éthique. Le PDG et la haute direction peuvent également investir dans la formation à la gouvernance de l’IA des employés, développer activement des politiques et des procédures internes et créer une culture de communication et de collaboration ouvertes.

Principes et normes de gouvernance de l’IA responsable

La gouvernance de l’IA est essentielle pour gérer les progrès rapides de la technologie d’IA, en particulier avec l’émergence de l’IA générative. L’IA générative, qui comprend des technologies capables de créer de nouveaux contenus et de nouvelles solutions, telles que du texte, des images et du code, présente un vaste potentiel dans de nombreux cas d’utilisation.

De l’amélioration des processus créatifs dans la conception et les médias à l’automatisation des tâches de développement logiciel, l’IA générative transforme le fonctionnement des secteurs. Cependant, sa large applicabilité nécessite une gouvernance solide.

Les principes de la gouvernance de l’IA responsable sont essentiels pour que les organisations puissent se protéger et protéger leurs clients. Ces principes peuvent guider les organisations dans le développement et l’application éthiques des technologies d’IA :

  • Empathie : les organisations doivent comprendre les implications sociétales de l’IA, pas seulement les aspects technologiques et financiers. Elles doivent anticiper et traiter l’impact de l’IA sur toutes les parties prenantes.

  • Contrôle des biais : il est essentiel d’examiner rigoureusement les données d’entraînement pour éviter d’intégrer les préjugés du monde réel dans les algorithmes d’IA, afin d’aider à garantir des prises de décision équitables et impartiales.

  • Transparence : la manière dont les algorithmes d’IA fonctionnent et prennent des décisions doit être claire et ouverte, et les organisations doivent être prêtes à expliquer la logique et le raisonnement qui sous-tendent les résultats obtenus grâce à l’IA.

  • Responsabilité : les organisations doivent définir et respecter de manière proactive des normes élevées pour gérer les changements significatifs que l’IA peut apporter, en conservant la responsabilité des impacts de l’IA.

Fin 2023, la Maison-Blanche a publié un décret pour aider à garantir la sûreté et la sécurité de l’IA. Cette stratégie complète fournit un cadre d’exigences pour établir de nouvelles normes afin de gérer les risques inhérents à la technologie d’IA. Les nouvelles normes du gouvernement étasunien en matière de sûreté et de sécurité de l’IA illustrent la manière dont les gouvernements abordent cette question très sensible.

  • Sûreté et sécurité de l’IA : exige que les développeurs de puissants systèmes d’IA partagent les résultats des tests de sécurité et des informations critiques avec le gouvernement des États-Unis. Cela nécessite le développement de normes, d’outils et de tests pour aider à garantir la sécurité et la fiabilité des systèmes d’IA​.

  • Protection de la vie privée : priorise le développement et l’utilisation de techniques de préservation de la vie privée et renforce la recherche et les technologies de préservation de la vie privée. Elle définit également des directives pour les agences fédérales afin d’évaluer l’efficacité des techniques de préservation de la vie privée.

  • Équité et droits civiques : empêche l’IA d’exacerber la discrimination et les préjugés dans divers secteurs. Il s’agit notamment de guider les propriétaires et les programmes fédéraux, de lutter contre la discrimination algorithmique et d’aider à garantir l’équité du système de justice pénale​.

  • Protection des consommateurs, des patients et des étudiants : aide à faire progresser l’IA responsable dans les soins de santé et l’éducation, par exemple en développant des médicaments qui sauvent des vies et en soutenant des outils éducatifs basés sur l’IA​.

  • Soutien aux travailleurs : élaboration de principes visant à atténuer les effets néfastes de l’IA sur les emplois et les lieux de travail, notamment en ce qui concerne les suppressions d’emplois et l’équité sur le lieu de travail​.

  • Promotion de l’innovation et de la concurrence : catalyse la recherche sur l’IA aux États-Unis, encourage un écosystème d’IA équitable et concurrentiel et facilite l’entrée de professionnels de l’IA qualifiés aux États-Unis.​

  • Leadership mondial en matière d’IA : étend la collaboration internationale en matière d’IA et promeut l’élaboration et la mise en œuvre de normes essentielles en matière d’IA avec des partenaires internationaux​.

  • Utilisation de l’IA par les pouvoirs publics : aide à garantir un déploiement responsable de l’IA par les pouvoirs publics en publiant des directives sur l’utilisation de l’IA par les agences, en améliorant l’approvisionnement dans le domaine de l’IA et en accélérant le recrutement de professionnels du domaine.

Alors que les réglementations et les forces du marché uniformisent de nombreux indicateurs de gouvernance, les organisations doivent toujours déterminer comment équilibrer au mieux les mesures de leur entreprise. La mesure de l’efficacité de la gouvernance de l’IA peut varier d’une organisation à l’autre ; chaque organisation doit décider des domaines d’intervention qu’elle doit privilégier. Avec des domaines d’intérêt tels que la qualité des données, la sécurité des modèles, l’analyse coût-valeur, la surveillance des biais, la responsabilité individuelle, l’audit continu et la capacité d’adaptation en fonction du domaine de l’organisation, il ne s’agit pas d’une décision identique pour toutes les entreprises.

Niveaux de gouvernance de l’IA

La gouvernance de l’IA n’a pas de « niveaux » suivant des normes universelles comme la cybersécurité peut par exemple avoir des niveaux définis de réponse aux menaces. Au lieu de cela, la gouvernance de l’IA possède des approches et des cadres structurés développés par diverses entités que les organisations peuvent adopter tels quels ou adapter à leurs besoins spécifiques.

Les organisations peuvent utiliser plusieurs cadres d’exigences et directives pour développer leurs pratiques de gouvernance. Parmi les cadres les plus utilisés, citons le cadre de gestion des risques liés à l’IA du NIST, les Principes de l’OCDE sur l’intelligence artificielle et les Lignes directrices en matière d’éthique pour une IA digne de confiance de la Commission européenne. Ces cadres fournissent des directives sur un éventail de sujets, notamment la transparence, la responsabilité, l’équité, la protection de la vie privée, la sécurité et la sûreté.

Les niveaux de gouvernance peuvent varier en fonction de la taille de l’organisation, de la complexité des systèmes d’IA utilisés et de l’environnement réglementaire dans lequel l’organisation opère.

Un aperçu de ces approches :

Gouvernance informelle

Il s’agit de l’approche la moins intensive de la gouvernance basée sur les valeurs et les principes de l’organisation. Il peut y avoir des processus informels, tels que des conseils d’examen éthique ou des comités internes, mais il n’existe pas de structure ou de cadre formel pour la gouvernance de l’IA.

Gouvernance ponctuelle

Elle est plus avancée par rapport à la gouvernance informelle et implique le développement de politiques et de procédures spécifiques pour le développement et l’utilisation de l’IA. Ce type de gouvernance est souvent développé en réponse à des défis ou des risques spécifiques et peut ne pas être complet ni systématique.

Gouvernance formelle

Il s’agit du plus haut niveau de gouvernance et implique le développement d’un cadre complet de gouvernance de l’IA. Ce cadre reflète les valeurs et les principes de l’organisation et s’aligne sur les lois et réglementations pertinentes. Les cadres de gouvernance formelle incluent généralement l’évaluation des risques, l’examen éthique et les processus de supervision.

Comment les organisations déploient la gouvernance de l’IA

Le concept de gouvernance de l’IA devient de plus en plus vital à mesure que l’automatisation, pilotée par l’IA, devient prépondérante dans des secteurs allant des soins de santé à la finance, en passant par les transports et les services publics. Les capacités d’automatisation de l’IA peuvent considérablement améliorer l’efficacité, la prise de décision et l’innovation, mais elles présentent également des défis liés à la responsabilité, à la transparence et aux considérations éthiques.

La gouvernance de l’IA consiste à établir des structures de contrôle robustes contenant des politiques, des directives et des cadres d’exigences pour relever ces défis. Elle consiste à configurer des mécanismes pour surveiller et évaluer continuellement les systèmes d’IA, en veillant à ce qu’ils respectent les normes éthiques établies et les réglementations légales.

Les structures de gouvernance efficaces dans l’IA sont multidisciplinaires et impliquent des parties prenantes de divers domaines, notamment la technologie, le droit, l’éthique et le commerce. À mesure que les systèmes d’IA deviennent plus sophistiqués et s’intègrent dans des aspects critiques de la société, le rôle de la gouvernance de l’IA dans l’orientation et la définition de la trajectoire du développement de l’IA et de son impact sociétal devient de plus en plus crucial.

Les bonnes pratiques de gouvernance de l’IA impliquent une approche allant au-delà de la simple conformité pour englober un système plus robuste de surveillance et de gestion des applications d’IA. Pour les entreprises, la solution de gouvernance de l’IA doit permettre une surveillance et un contrôle généraux des systèmes d’IA. Voici un exemple de feuille de route à envisager :

  1. Tableau de bord visuel : utilisez un tableau de bord qui fournit des mises à jour en temps réel sur l’intégrité et le statut des systèmes d’IA, offrant une vue d’ensemble claire pour des évaluations rapides.
     

  2. Indicateurs d’intégrité : mettez en place un score d’intégrité global pour les modèles IA en utilisant des indicateurs intuitifs et faciles à comprendre pour simplifier le suivi.
     

  3. Surveillance automatisée : utilisez des systèmes de détection automatique pour détecter les biais, les déviations, les performances et les anomalies afin de garantir que les modèles fonctionnent correctement et de manière éthique.
     

  4. Alertes de performance : configurez des alertes pour l’écart entre un modèle et ses paramètres de performance prédéfinis, ce qui permet des interventions rapides.
     

  5. Indicateurs personnalisés : définissez des indicateurs personnalisés qui s’alignent sur les indicateurs clés de performance (KPI) et les seuils de l’organisation pour aider à vous assurer que les résultats de l’IA contribuent aux objectifs de l’entreprise.
     

  6. Pistes d’audit : conservez des journaux et des pistes d’audit facilement accessibles pour responsabiliser et faciliter les examens des décisions et comportements des systèmes d’IA.
     

  7. Compatibilité des outils open source : choisissez des outils open source compatibles avec diverses plateformes de développement de machine learning pour bénéficier de la flexibilité et du soutien de la communauté.
     

  8. Intégration fluide : assurez-vous que la plateforme de gouvernance de l’IA s’intègre de façon fluide à l’infrastructure existante, y compris aux bases de données et aux écosystèmes logiciels, pour éviter les silos et permettre des workflows efficaces.
     

En adhérant à ces pratiques, les organisations peuvent établir un solide cadre de gouvernance de l’IA qui soutient un développement, un déploiement et une gestion responsables de l’IA, aidant à garantir la conformité et l’alignement des systèmes d’IA avec les normes éthiques et les objectifs organisationnels.

Quelles réglementations nécessitent une gouvernance de l’IA ?

Les pratiques et réglementations de gouvernance de l’IA ont été adoptées par plusieurs pays pour prévenir les préjugés et la discrimination. Il est important de se rappeler que la réglementation est toujours en évolution et que les organisations qui gèrent des systèmes d’IA complexes doivent rester attentives à l’évolution des cadres légaux régionaux.

La loi européenne sur l’intelligence artificielle

La loi européenne sur l’intelligence artificielle (ou EU AI Act) vise à encadrer le développement ou l’utilisation de l’intelligence artificielle (IA) au sein de l’Union européenne (UE). Cette loi adopte une approche réglementaire axée sur les risques, appliquant des règles différentes aux systèmes d’IA selon le niveau de risque qu’ils présentent.

Considérée comme le premier cadre réglementaire complet au monde pour l'IA, la loi sur l’IA de l'UE interdit certaines utilisations de l'IA et impose des exigences strictes en matière de gouvernance, de gestion des risques et de transparence pour d'autres.

La loi établit également des règles pour les modèles d’intelligence artificielle à usage général, tels que le modèle Granite d’IBM et le modèle Llama 3 de Meta, qui est un modèle de fondation open source. En cas de non-conformité, les sanctions peuvent varier de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires annuel mondial à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, selon la gravité de l’infraction.

La SR-11-7 des États-Unis

La SR-11-71 est la norme réglementaire étasunienne de gouvernance des modèles pour une gouvernance efficace et solide des modèles dans le secteur bancaire.La réglementation exige que les responsables bancaires appliquent des initiatives de gestion des risques de modèles à l’échelle de l’entreprise et maintiennent un inventaire des modèles utilisés, en cours de développement ou récemment retirés.

Les dirigeants des institutions doivent également prouver que leurs modèles atteignent l’objectif commercial pour lequel ils ont été conçus, qu’ils sont à jour et n’ont pas dérivé. Le développement et la validation d’un modèle doivent permettre à toute personne qui n’est pas familière avec ce modèle de comprendre son fonctionnement, ses limites et ses principales hypothèses.

Directive sur la prise de décisions automatisée du Canada

La Directive sur la prise de décisions automatisée du Canada décrit comment le gouvernement du pays utilise l’IA pour guider les décisions dans plusieurs services.2 La directive utilise un système de notation pour évaluer l’intervention humaine, l’évaluation par les pairs, le suivi et la planification d’urgence nécessaires à un outil d’IA conçu pour servir les citoyens.

Les organisations qui créent des solutions d’IA ayant obtenu un score élevé doivent procéder à deux évaluations indépendantes par des pairs, informer le public dans un langage simple, mettre au point un dispositif de sécurité pour l’intervention humaine et mettre en place des cours de formation récurrents pour le système. Alors que la Directive canadienne sur la prise de décisions automatisée est un guide pour le développement de l’IA dans le pays, la réglementation n’affecte pas directement les entreprises de la même manière que la SR-11-7 aux États-Unis.

L’évolution de la réglementation européenne en matière d’IA

En avril 2021, la Commission européenne a présenté son train de mesures sur l’IA, y compris des déclarations sur la promotion d’une approche européenne de l’excellence, de la confiance et d’une proposition de cadre juridique sur l’IA.3

Les déclarations précisent que si la plupart des systèmes d’IA entrent dans la catégorie des « risques minimes », les systèmes d’IA identifiés comme présentant un « risque élevé » devront se conformer à des exigences plus strictes et les systèmes considérés comme présentant un « risque inacceptable » seront interdits. Les organisations doivent prêter une attention particulière à ces règles sous peine d’amendes.

    Réglementations et directives de gouvernance de l’IA dans la région Asie-Pacifique

    En 2023, la Chine a publié ses « Mesures provisoires pour l’administration des services d’intelligence artificielle générative ». En vertu de cette loi, la fourniture et l’utilisation de services d’IA générative doivent « respecter les droits et intérêts légitimes d’autrui » et sont tenues de « ne pas mettre en danger la santé physique et mentale d’autrui, et ne pas porter atteinte aux droits à l’image, à la réputation, à l’honneur, à la vie privée et aux droits à la protection des données personnelles d’autrui ».

    D’autres pays de la région Asie-Pacifique ont publié plusieurs principes et lignes directrices pour régir l’IA. En 2019, le gouvernement fédéral de Singapour a publié un cadre avec des lignes directrices pour traiter les questions d’éthique de l’IA dans le secteur privé. Plus récemment, en mai 2024, il a publié un cadre de gouvernance pour l’IA générative. L’Inde, le Japon, la Corée du Sud et la Thaïlande étudient également des lignes directrices et une législation pour la gouvernance de l’IA.3

    Solutions connexes

    Solutions connexes

    IBM watsonx.governance

    Gouvernez les modèles d’IA générative où que vous soyez et déployez-les dans le cloud ou sur site avec IBM watsonx.governance.

    Découvrir watsonx.governance
    Services de conseil en gouvernance de l’IA

    Préparez-vous à la loi européenne sur l’IA et adoptez une approche responsable de la gouvernance de l’IA avec IBM Consulting.

    Découvrir les services de gouvernance de l’IA
    IBM OpenPages

    Simplifiez la gestion des risques et de la conformité aux réglementations grâce à une plateforme GRC unifiée.

    Découvrir OpenPages
    Passez à l’étape suivante

    Dirigez, gérez et surveillez votre IA à l’aide d’un portefeuille unique pour favoriser une IA responsable, transparente et explicable.

    Découvrez watsonx.governance Réserver une démo live
    Notes de bas de page

    1 « SR 11-7: Guidance on model risk management. », Conseil d’administration du Federal Reserve System, Washington, D.C, Division de supervision et réglementation bancaires, 4 avril 2011. 

    2 « Canada’s new federal directive makes ethical AI a national issue. » Digital, 8 mars 2019.

    3 « Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology », Sidley, 16 août 2024.