Le meilleur pari des entreprises pour l’avenir : sécuriser l’IA générative

6 mai 2024

Temps de lecture : 4 min.

Étude IBM et AWS : Moins de 25 % des projets d’IA générative actuels sont sécurisés 

Le monde des entreprises fonctionne depuis longtemps sur l’idée que la confiance est la monnaie d’échange d’une entreprise prospère. Mais à mesure que l’IA transforme et redéfinit le mode de fonctionnement des entreprises et les interactions des clients, la confiance dans la technologie doit être établie.

Les progrès de l’IA peuvent libérer du capital humain pour se concentrer sur des objectifs à forte valeur. Cette évolution ne manquera pas d’avoir un impact transformateur sur la croissance des entreprises. Cependant, les expériences des utilisateurs et des clients dépendent de l’engagement des organisations à créer des solutions technologiques sécurisées, responsables et fiables.

Les entreprises doivent déterminer si l’IA générative qui interagit avec les utilisateurs est fiable, et la sécurité est un élément fondamental de la confiance. C’est là que se situe l’un des principaux enjeux auxquels les entreprises sont confrontées : sécuriser leurs déploiements d’IA.

 

Innover maintenant, sécuriser plus tard : une déconnexion

Aujourd’hui, l’IBM Institute for Business Value a publié l’étude « Sécuriser l’IA générative : Ce qui compte à présent », coécrite par IBM et AWS, qui présente de nouvelles données, pratiques et recommandations pour sécuriser les déploiements de l’IA générative. Selon l’étude d’IBM, 82 % des dirigeants interrogés ont déclaré qu’une IA sécurisée et digne de confiance est essentielle à la réussite de leur entreprise. Bien que ce point soit encourageant, 69 % des dirigeants interrogés ont également indiqué qu’en matière d’IA générative, l’innovation prime sur la sécurité.

Si privilégier l’innovation à la sécurité relève d’un choix, c’est en réalité un test. Il y a une contradiction évidente ici : les organisations reconnaissent que les enjeux de l’IA générative sont plus importants que jamais, mais elles ne prennent pas en compte les enseignements tirés des ruptures technologiques précédentes. De même que la transition vers le cloud hybride, le développement de logiciels agiles ou le Zero Trust, la sécurité de l’IA générative semble être une préoccupation secondaire. Plus de 50 % des personnes interrogées se disent préoccupées par les risques imprévisibles qui affectent les initiatives d’IA générative et craignent qu’ils n’entraînent un risque accru d’interruption des activités. Or, seulement 24 % d’entre elles déclarent que leurs projets actuels d’IA générative sont sécurisés. Pourquoi un tel décalage ?

L’indécision en matière de sécurité peut être à la fois un indicateur et le résultat d’un manque plus large de connaissances dans le domaine de l’IA générative. Près de la moitié des répondants (47 %) ont déclaré qu’ils ne savaient pas où et combien investir dans l’IA générative. Alors que les équipes testent de nouvelles fonctionnalités, les dirigeants continuent de réfléchir aux cas d’utilisation de l’IA générative les plus judicieux et à la manière de les adapter à leurs environnements de production.

La sécurisation de l’IA générative commence par la gouvernance

Ne pas savoir par où commencer peut également être un frein à l’action en matière de sécurité. C’est pourquoi IBM et AWS ont uni leurs efforts pour mettre en lumière un guide d’action et des recommandations pratiques pour les organisations cherchant à protéger leur IA.

Pour établir confiance et sécurité dans leur IA générative, les organisations doivent commencer par les fondamentaux, avec la gouvernance comme base de référence. En fait, 81 % des personnes interrogées ont indiqué que l’IA générative nécessite un modèle de gouvernance de sécurité entièrement nouveau. En commençant par la gouvernance, le risque et la conformité (GRC), les dirigeants peuvent jeter les bases d’une stratégie de cybersécurité pour protéger leur architecture d’IA alignée sur les objectifs de l’entreprise et les valeurs de la marque.

Pour qu’un processus soit sécurisé, vous devez d’abord comprendre comment il doit fonctionner et à quoi il doit ressembler afin d’identifier les écarts. Une IA qui s’éloigne de ce pour quoi elle a été conçue sur le plan opérationnel peut introduire de nouveaux risques aux répercussions imprévues sur l’entreprise. Ainsi, en identifiant et en comprenant ces risques potentiels, les organisations peuvent déterminer leur propre seuil de risque, en fonction de leurs propres exigences en matière de conformité et de réglementation.

Une fois les garde-fous de gouvernance définis, les organisations sont en mesure d’établir une stratégie plus efficace pour sécuriser le pipeline d’IA, les données, les modèles et leur utilisation, ainsi que l’infrastructure sous-jacente dans laquelle ils créent et intègrent leurs innovations IA. Quant au modèle de responsabilité partagée pour la sécurité, il peut changer en fonction de la manière dont l’organisation utilise l’IA générative. De nombreux outils, contrôles et processus sont disponibles pour aider à atténuer le risque d’impact métier à mesure que les organisations développent leurs propres opérations d’IA.

Les organisations doivent également reconnaître que même si les hallucinations, l’éthique et les préjugés viennent souvent à l’esprit en premier lorsqu’on pense à l’IA de confiance, le pipeline d’IA est confronté à un contexte de menaces qui met la confiance elle-même en danger. Les menaces classiques prennent un nouveau sens, les nouvelles menaces utilisent les capacités offensives de l’IA comme nouveau vecteur d’attaque, et les menaces émergentes cherchent à compromettre les actifs et les services d’IA sur lesquels nous comptons de plus en plus.

L’équation confiance-sécurité

La sécurité peut contribuer à instaurer la confiance dans les cas d’utilisation de l’IA générative. Pour réaliser cette synergie, les organisations doivent adopter une approche de village. La conversation doit aller au-delà des parties prenantes IS et IT et impliquer la stratégie, le développement de produits, les risques, la chaîne d’approvisionnement et l’engagement client.

Ces technologies étant à la fois transformatrices et perturbatrices, la gestion de l’IA et des actifs d’IA générative de l’organisation nécessite une collaboration entre la sécurité, la technologie et les opérations.

Un partenaire technologique peut jouer un rôle clé. L’utilisation de l’étendue et de la profondeur de l’expertise des partenaires technologiques dans le cycle de vie des menaces et dans l’ensemble de l’écosystème de la sécurité peut être un atout inestimable. En fait, l’étude d’IBM révèle que plus de 90 % des organisations interrogées sont habilitées à proposer leurs solutions de sécurité pour l’IA générative par l’intermédiaire d’un produit tiers ou d’un partenaire technologique. Lorsqu’il s’agit de choisir un partenaire technologique pour répondre à leurs besoins de sécurité de l’IA générative, les organisations interrogées ont déclaré ce qui suit :

  • 76 % recherchent un partenaire qui les aide à établir un chiffrage des coûts convaincant avec un solide retour sur investissement.
  • 58 % recherchent des conseils sur une stratégie globale et une feuille de route.
  • 76 % recherchent des partenaires susceptibles de faciliter la formation, le partage et le transfert de connaissances.
  • 75 % choisissent des partenaires qui peuvent les guider dans le contexte en constante évolution de la conformité juridique et réglementaire.

L’étude montre clairement que les organisations reconnaissent l’importance de la sécurité pour leurs innovations en matière d’IA, mais qu’elles tentent encore de comprendre la meilleure façon d’aborder la révolution IA. L’établissement de relations pouvant guider, conseiller et soutenir techniquement ces efforts est une prochaine étape cruciale vers une IA générative protégée et fiable. En plus de partager des informations clés sur les perceptions et les priorités des dirigeants, IBM et AWS ont inclus un guide d’action avec des recommandations pratiques pour faire passer votre stratégie de sécurité de l’IA générative au niveau supérieur.

 

Auteur

Dimple Ahluwalia

VP & Global Senior Partner, Security Services