Qu’est-ce que la sécurité basée sur l’IA ?

Auteurs

Annie Badman

Staff Writer

IBM Think

Matthew Kosinski

Staff Editor

IBM Think

Qu’est-ce que la sécurité basée sur l’IA ?

Forme abrégée de la sécurité assistée par l’intelligence artificielle, la sécurité assistée par l’IA est le processus qui consiste à utiliser l’IA pour améliorer la posture de sécurité d’une organisation. Grâce aux systèmes d’IA, les organisations peuvent automatiser la détection, la prévention et la résolution des menaces pour mieux lutter contre les cyberattaques et les violations de données.

Les organisations peuvent intégrer l’IA dans les pratiques de cybersécurité de nombreuses manières. Les outils de sécurité basés sur l’IA les plus courants utilisent le machine learning (ML) et l’ apprentissage profond pour analyser de grandes quantités de données, notamment les tendances du trafic, l’utilisation des applications, les habitudes de navigation et d’autres données sur l’activité du réseau.

Cette analyse permet à l’IA de découvrir des schémas et d’établir une base de sécurité. Toute activité qui va au delà de ce niveau de référence est immédiatement signalée comme une anomalie et une cybermenace potentielle, ce qui permet aux équipes d’y remédier rapidement.

De plus, les outils de sécurité basés sur l’IA utilisent fréquemment l’ IA générative (gen AI), popularisée par les grands modèles de langage (LLM), pour convertir les données de sécurité en recommandations en texte brut, ce qui permet de rationaliser la prise de décision des équipes de sécurité.

Des recherches montrent que les outils de sécurité assistés par l’IA améliorent considérablement la détection des menaces et la réponse aux incidents. Selon le Rapport sur le coût d’une violation de données  d’IBM, les organisations qui disposent d’une IA dédiée à la sécurité et d’une automatisation étendues ont identifié et contenu les violations de données 108 jours plus rapidement en moyenne que les organisations qui ne disposaient pas d’outils d’IA.

En outre, le rapport a révélé que les organisations qui utilisent largement la sécurité assistée par l’IA économisent, en moyenne, 1,76 million de dollars sur les coûts de réponse aux violations de données. Cela représente une différence de près de 40 % par rapport au coût moyen d’une violation pour les entreprises qui n’utilisent pas l’IA.

C’est pour ces raisons que les investissements dans la sécurité assistée par l’IA augmentent. Une étude récente prévoit que le marché de la sécurité assistée par l’IA, évalué à 20,19 milliards de dollars en 2023, atteindra 141,64 milliards de dollars d’ici 2032, soit une croissance annuelle de 24,2 %.1

Votre équipe sera-t-elle en mesure de repérer la prochaine attaque de type zero-day à temps ?

Rejoignez les responsables de la sécurité qui font confiance à la Newsletter Think pour obtenir des informations ciblées autour de l’IA, de la cybersécurité, des données et de l’automatisation. Apprenez rapidement grâce à des tutoriels et des fiches explicatives d’experts, envoyés directement dans votre boîte de réception. Consultez la Déclaration de confidentialité d’IBM.

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

https://www.ibm.com/fr-fr/privacy

Sécurité de l'IA ou sécurisation de l'IA

La définition de la sécurité de l’IA varie d’un contexte à l’autre. Si cette page se concentre sur l’usage de l’intelligence artificielle en renforcement de la cybersécurité, deux autres interprétations courantes tournent autour de la protection des modèles et des programmes d’IA contre les usages malveillants ou les accès non autorisés.

Pour l’une des définitions, les experts en cybersécurité se concentrent sur la manière dont les acteurs de la menace utilisent l’IA pour améliorer leurs cyberattaques ou exploiter de nouvelles surfaces d’attaque.

Par exemple, les LLM peuvent aider les pirates à créer des attaques par hameçonnage plus personnalisées et sophistiquées. S’agissant d’une technologie relativement récente, les modèles d’IA offrent également aux acteurs malveillants de nouvelles opportunités de cyberattaques, telles que des attaques contre la chaîne d’approvisionnement et les attaques adverses (voir « Vulnérabilités potentielles et risques de sécurité liés à l’IA »).

Par ailleurs, la sécurité de l’IA peut être comprise comme la sécurisation des déploiements associés. Une étude récente de l’IBM Institute for Business Value a révélé que seuls 24 % des projets d’IA générative sont sécurisés. La sécurisation des projets d’IA implique des pratiques visant à sécuriser les données, les modèles et l’utilisation de l’IA.

Par exemple, les exercices de red teaming, où les pirates éthiques se comportent comme s’ils étaient des adversaires réels, ciblent généralement les systèmes d’IA, les modèles de machine learning et les jeux de données qui soutiennent les applications d’IA et de ML.

La sécurisation des déploiements d'IA peut également impliquer une surveillance pour éliminer les cas d'IA fantôme, qui est l'utilisation non autorisée de modèles IA et d'outils d'IA. Toutes ces pratiques aident également les entreprises à gérer les risques liés à l'IA et à résoudre les problèmes de conformité.

Pourquoi la sécurité assistée par l’IA est-elle importante ?

Le paysage actuel des cybermenaces est complexe. Le passage au cloud et aux environnements de cloud hybride a entraîné une prolifération des données et un élargissement des surfaces d’attaque, et les acteurs malveillants continuent de leur côté à trouver de nouveaux moyens d’exploiter les vulnérabilités. Et dans le même temps, les professionnels de la cybersécurité sont rares, plus de 700 000 postes étant à pourvoir rien qu’aux Etats-Unis.2

Résultat : les cyberattaques sont désormais plus fréquentes et plus coûteuses. Selon le Rapport sur le coût d’une violation de données , le coût moyen pour remédier à une violation de données à l’échelle mondiale en 2023 était de 4,45 millions de dollars, soit une augmentation de 15 % en trois ans.

La sécurité assistée par l’IA peut apporter une solution. En automatisant la détection et la réponse aux menaces, l’IA permet de prévenir plus facilement les attaques et d’identifier les acteurs malveillants en temps réel. Les outils d’IA peuvent être utiles dans tous les domaines, qu’il s’agisse de prévenir les attaques par logiciels malveillants (en les identifiant et en les isolant), ou de détecter les attaques par force brute (en reconnaissant et en bloquant les tentatives de connexion répétées).

Grâce à la sécurité assistée par l’IA, les entreprises peuvent surveiller en permanence leurs opérations de sécurité et utiliser des algorithmes de machine learning pour s’adapter à l’évolution des cybermenaces.

Ne pas investir dans la sécurité assistée par l’IA peut s’avérer coûteux. Les organisations qui ne disposent pas d’un système de sécurité assisté par l’IA ont un coût moyen de violation de données de 5,36 millions de dollars, soit 18,6 % de plus que le coût moyen toutes organisations confondues.

Même une sécurité limitée pouvait permettre de réaliser des économies significatives : les entreprises avec une sécurité de l’IA limitée ont fait état d’un coût moyen de 4,04 millions de dollars US par violation de données — soit 400 000 dollars US de moins que la moyenne globale et 28,1 % de moins que celles n’ayant aucune sécurité de l’IA.

Malgré ses avantages, l’IA pose des défis en matière de sécurité, en particulier en ce qui concerne la sécurité des données. La fiabilité des modèles d’IA dépend des données utilisées pour l’entraînement. Les données altérées ou biaisées peuvent générer des faux positifs ou des réponses inexactes. Par exemple, les données d’entraînement biaisées qui sont utilisées pour les décisions d’embauche peuvent renforcer les préjugés sexistes ou raciaux, une situation dans laquelle les modèles d’IA favorisent certains groupes démographiques et en discriminent d’autres.3

Les outils d’IA peuvent également aider les acteurs malveillants à exploiter plus efficacement les vulnérabilités de sécurité. Par exemple, les attaquants peuvent utiliser l’IA pour automatiser la découverte des vulnérabilités d’un système ou générer des attaques par phishing sophistiquées.

Selon Reuters, le Federal Bureau of Investigation (FBI) a constaté une augmentation des cyberintrusions dues à l’IA.4 Un rapport récent a également révélé que 75 % des professionnels de la cybersécurité voient davantage de cyberattaques, et 85 % attribuent cette hausse aux acteurs malveillants qui utilisent l’IA générative.5

À l’avenir, de nombreuses organisations devront chercher des moyens d’investir du temps et des ressources dans la sécurisation de l’IA afin de profiter des avantages de l’intelligence artificielle sans compromettre l’éthique ou la sécurité de l’IA (voir « Bonnes pratiques pour la sécurité de l’IA »).

Avantages de la sécurité assistée par l’IA

Les capacités d’IA peuvent offrir des avantages significatifs pour renforcer les défenses de cybersécurité. Parmi les avantages les plus importants de la sécurité assistée par l’IA, on peut citer :

  • L’amélioration de la détection des menaces – Les algorithmes d’IA peuvent analyser de grandes quantités de données en temps réel afin d’améliorer la rapidité et la précision de la détection des cybermenaces potentielles. Les outils d’IA peuvent également identifier des vecteurs d’attaque sophistiqués que les mesures de sécurité traditionnelles pourraient ignorer.
  • Une réponse plus rapide aux incidents – L’IA peut raccourcir le temps nécessaire pour détecter les incidents de sécurité, les étudier et y répondre, ce qui permet aux organisations de faire face aux menaces plus rapidement et de réduire les dommages potentiels.
  • Une efficacité opérationnelle accrue – Les technologies d’IA peuvent automatiser les tâches de routine, rationaliser les opérations de sécurité et réduire les coûts. L’optimisation des opérations de cybersécurité peut également réduire les erreurs humaines et libérer les équipes de sécurité pour des projets plus stratégiques.
  • Une approche proactive de la cybersécurité – La sécurité assistée par l’IA permet aux entreprises d’adopter une approche plus proactive de la cybersécurité, car elle utilise les données historiques pour prédire les futures cybermenaces et identifier les vulnérabilités.
  • Une compréhension des menaces émergentes – La sécurité basée sur l’IA aide les organisations à garder une longueur d’avance sur les acteurs malveillants. En tirant des informations des nouvelles données en continu, les systèmes d’IA peuvent s’adapter aux menaces émergentes et maintenir l’efficacité des défenses de cybersécurité contre les nouvelles méthodes d’attaque.
  • Une expérience utilisateur améliorée – L’IA peut améliorer les mesures de sécurité sans compromettre l’expérience utilisateur. Par exemple, les méthodes d’authentification basées sur l’IA, telles que la reconnaissance biométrique et l’analyse comportementale, peuvent rendre l’authentification des utilisateurs plus transparente et plus sécurisée.
  • La capacité à se dimensionner – Les solutions de cybersécurité basées sur l’IA peuvent se dimensionner pour protéger des environnements informatiques vastes et complexes. Elles peuvent également s’intégrer aux infrastructures et aux outils de cybersécurité existants, comme les plateformes de gestion des informations et des événements de sécurité (SIEM), le but étant d’améliorer les renseignements en temps réel sur les menaces et les capacités de réponse automatisée du réseau.

Vulnérabilités potentielles et risques de sécurité liés à l’IA

Les outils d’IA ont de nombreux avantages, mais leur adoption peut élargir la surface d’attaque d’une organisation et présenter plusieurs menaces pour la sécurité.

Parmi les risques de sécurité les plus courants posés par l’IA, on peut citer :

Risques liés à la sécurité des données

Les systèmes d’IA reposent sur des ensembles de données qui peuvent être vulnérables à la falsification, aux violations et à d’autres types d’attaques. Les organisations peuvent atténuer ces risques en protégeant l’intégrité, la confidentialité et la disponibilité des données tout au long du cycle de vie de l’IA, du développement à l’entraînement et au déploiement.

Risques de sécurité liés aux modèles d’IA

Les acteurs malveillants peuvent cibler les modèles d’IA pour les voler, faire de l’ingénierie inverse ou les manipuler sans autorisation. Les attaquants peuvent compromettre l’intégrité d’un modèle en altérant son architecture, ses poids ou ses paramètres, c’est-à-dire les éléments essentiels qui déterminent le comportement et les performances d’un modèle d’IA.

Attaques adverses

Les attaques adverses consistent à manipuler les données d’entrée pour tromper les systèmes d’IA, ce qui conduit à des prédictions ou à des classifications incorrectes. Par exemple, les attaquants peuvent générer des exemples contradictoires qui exploitent les vulnérabilités des algorithmes d’IA pour interférer avec la prise de décision des modèles d’IA ou produire des biais.

De même, les injections d’invites utilisent des invites malveillantes pour inciter les outils d’IA à prendre des mesures néfastes, telles que la fuite de données ou la suppression de documents importants.

Déploiement éthique et sûr

Si les équipes de sécurité ne donnent pas la priorité à la sécurité et à l’éthique lors du déploiement des systèmes d’IA, elles risquent de commettre des violations de la vie privée et d’exacerber les biais et les faux positifs. Seul un déploiement éthique permet aux organisations d'assurer l'équité, la transparence et la responsabilité dans la prise de décision en matière d'IA.

Conformité réglementaire

Le respect des exigences légales et réglementaires est essentiel pour garantir l’utilisation légale et éthique des systèmes d’IA. Les organisations doivent se conformer à des réglementations telles que le Règlement général sur la protection des données (RGPD), la CCPA (« California Consumer Privacy Act ») et la loi sur l’IA de l’UE, sans quoi elles risquent de divulguer des données sensibles et s’exposent à de lourdes sanctions juridiques.

Attaques par manipulation d’entrée

Les attaques par manipulation d’entrée consistent à modifier les données d’entrée pour influencer le comportement ou les résultats des systèmes d’IA. Les attaquants peuvent manipuler les données d’entrée pour échapper à la détection, contourner les mesures de sécurité ou influencer les processus de prise de décision, ce qui peut conduire à des résultats biaisés ou inexacts.

Par exemple, les acteurs malveillants peuvent compromettre les résultats d’un système d’IA dans le cadre d’attaques par empoisonnement de données en lui fournissant intentionnellement au modèle de mauvaises données d’entraînement.

Les attaques de la chaîne d’approvisionnement

Les attaques de la chaîne d’approvisionnement se produisent lorsque des acteurs malveillants ciblent des systèmes d’IA au niveau de la chaîne d’approvisionnement, y compris aux stades de leur développement, de leur déploiement ou de leur maintenance. Par exemple, les attaquants peuvent exploiter les vulnérabilités des composants tiers, des bibliothèques de logiciels ou des modules utilisés dans le développement de l’IA, ce qui entraîne des violations de données ou un accès non autorisé.

Les modèles d’IA se dégradent peu à peu

Les modèles d’IA peuvent subir une détérioration au fil du temps, ce qui entraîne une dégradation des performances ou de l’efficacité. Les personnes mal intentionnées peuvent exploiter les faiblesses d’un modèle d’IA en déclin pour manipuler les résultats. Les organisations peuvent surveiller les modèles d’IA pour détecter les changements dans les performances, le comportement ou la précision afin de maintenir leur fiabilité et leur pertinence.

Cas d’utilisation de la sécurité assistée par l’IA

Les applications de l’IA dans la cybersécurité sont diverses et évoluent en permanence à mesure que les outils d’IA deviennent plus avancés et accessibles.

Les cas d’utilisation actuels les plus courants de la sécurité assistée par l’IA incluent :

Protection des données

La protection des données consiste à protéger les informations sensibles contre le vol et la corruption, et à assurer leur disponibilité et leur conformité aux exigences réglementaires.

Les outils d’IA peuvent aider les organisations à améliorer la protection des données en classant les données sensibles, en surveillant les mouvements de données et en empêchant l’accès et l’exfiltration non autorisés. L’IA peut également optimiser les processus de chiffrement et de tokenisation pour protéger les données au repos et en transit.

De plus, l’IA peut s’adapter automatiquement au paysage des menaces et surveiller ces dernières 24 heures sur 24, ce qui permet aux organisations d’anticiper toute cybermenace émergente.

Sécurité au Point de terminaison

La sécurité des points de terminaison consiste à protéger les points de terminaison (tels que les ordinateurs, les serveurs et les appareils mobiles) contre les menaces de cybersécurité.

L’IA peut améliorer les solutions de détection et réponse des terminaux (EDR) existantes en surveillant en permanence les points de terminaison à la recherche de comportements suspects et d’anomalies, le but étant de détecter les menaces de sécurité en temps réel.

Les algorithmes de machine learning peuvent également aider à identifier et à atténuer les menaces avancées sur les points de terminaison avant qu’elles ne causent des dommages (comme les logiciels malveillants sans fichier et les attaques zero-day).

Sécurité cloud

L’IA peut aider à protéger les données sensibles dans les environnements de cloud hybride en identifiant automatiquement les données fantômes, en surveillant les anomalies dans l’accès aux données et en alertant les professionnels de la cybersécurité sur les menaces au fur et à mesure qu’elles se produisent.

Traque des menaces avancées

Les plateformes de traque des menaces recherchent de manière proactive les signes d’activités malveillantes au sein du réseau d’une organisation.

Grâce à l’intégration de l’IA, ces outils peuvent devenir encore plus avancés et efficaces, par exemple en analysant de grands jeux de données, en identifiant les signes d’intrusion et en permettant de détecter plus rapidement les menaces avancées et d’y répondre.

Détection des fraudes

Alors que les cyberattaques et le vol d’identité deviennent de plus en plus courants, les institutions financières ont besoin de moyens capables de protéger leurs clients et leurs actifs.

L’IA aide ces institutions en analysant automatiquement les données transactionnelles pour y déceler des schémas qui peuvent indiquer une fraude. En outre, les algorithmes de machine learning peuvent s’adapter aux nouvelles menaces évolutives en temps réel, ce qui permet aux fournisseurs financiers d’améliorer en continu leurs capacités de détection des fraudes et d’anticiper sur le comportement des acteurs malveillants.

Automatisation de la cyber-sécurité

Les outils de sécurité assistés par l’IA sont souvent plus efficaces lorsqu’ils sont intégrés à l’infrastructure de sécurité existante d’une organisation.

Par exemple, l’orchestration et l’automatisation de la sécurité et la réponse aux incidents (« security orchestration, automation and response » ou SOAR) est une solution logicielle que de nombreuses organisations utilisent pour rationaliser les opérations de sécurité. L’IA peut s’intégrer aux plateformes SOAR pour automatiser les tâches de routine et les workflows. Cette intégration peut permettre une réponse plus rapide aux incidents et donner du temps aux analystes de sécurité pour des problèmes plus complexes.

Gestion des identités et des accès (IAM)

Les outils de gestion des identités et des accès (IAM) gèrent la manière dont les utilisateurs accèdent aux ressources numériques et ce qu’ils peuvent en faire. Leur objectif est de protéger les systèmes des pirates tout en veillant à ce que chaque utilisateur dispose des autorisations dont il a besoin, sans privilège inutile.

Les solutions d’IAM pilotées par l’IA peuvent améliorer ce processus en fournissant des contrôles d’accès granulaires basés sur les rôles, les responsabilités et le comportement, ce qui garantit que seuls les utilisateurs autorisés peuvent accéder aux données sensibles.

L’IA peut également améliorer les processus d’authentification en utilisant le machine learning pour analyser les comportements des utilisateurs, et permettre des mesures d’authentification adaptatives qui évoluent en fonction du niveau de risque de chaque utilisateur.

Détection du hameçonnage

Des LLM comme ChatGPT ont rendu les attaques par hameçonnage plus faciles à réaliser et plus difficiles à identifier. Cependant, l’IA est également devenue un outil essentiel pour lutter contre le hameçonnage.

Les modèles de machine learning peuvent aider les organisations à analyser les e-mails et d’autres communications pour y trouver des signes d’hameçonnage, ce qui améliore la précision de la détection et réduit les tentatives d’hameçonnage réussies. Les solutions de sécurité des e-mails alimentées par l’IA peuvent également fournir des renseignements sur les menaces en temps réel et des réponses automatisées pour stopper les attaques par hameçonnage au fur et à mesure qu’elles se produisent.

Gestion des vulnérabilités

La gestion des vulnérabilités est la découverte, la hiérarchisation, l’atténuation et la résolution continues des failles de sécurité dans l’infrastructure informatique et les logiciels d’une organisation.

L’IA peut améliorer les scanners de vulnérabilités traditionnels en hiérarchisant automatiquement les vulnérabilités en fonction de l’impact potentiel et de la probabilité d’exploitation. Ceci permet aux organisations de traiter les risques de sécurité les plus critiques en premier.

L’IA peut également automatiser la gestion des correctifs afin de réduire l’exposition aux cybermenaces.

Bonnes pratiques pour la sécurité assistée par l’IA

Pour équilibrer les risques et les avantages que représente l’IA pour la sécurité, de nombreuses organisations élaborent des stratégies explicites de sécurité assistée par l’IA qui décrivent la manière dont les parties prenantes doivent développer, mettre en œuvre et gérer les systèmes d’IA.

Bien que ces stratégies varient nécessairement d’une entreprise à l’autre, certaines des bonnes pratiques les plus couramment utilisées sont les suivantes :

Mettre en œuvre des processus formalisés de gouvernance des données

Les pratiques de gouvernance des données et de gestion des risques peuvent contribuer à protéger les informations sensibles utilisées dans les processus d’IA tout en maintenant l’efficacité de l’IA.

En utilisant des jeux de données d’entraînement pertinents et précis et en mettant régulièrement à jour les modèles d’IA avec de nouvelles données, les organisations peuvent être sûres que leurs modèles s’adaptent à l’évolution des menaces au fil du temps.

Intégrer l’IA aux outils de sécurité existants

Intégrer des outils d’IA à l’infrastructure de cybersécurité existante, comme les flux de renseignements sur les menaces et les systèmes SIEM, peut contribuer à maximiser l’efficacité tout en minimisant les perturbations et les temps d’arrêt associés au déploiement de nouvelles mesures de sécurité.

Priorité à l’éthique et à la transparence

Maintenir la transparence dans les processus d’IA en documentant les algorithmes et les sources de données et en communiquant ouvertement avec les parties prenantes sur l’utilisation de l’IA peut aider à identifier et à atténuer les biais potentiels et les inéquités.

Appliquer des contrôles de sécurité aux systèmes d’IA

Les outils d’IA peuvent améliorer la posture de sécurité, mais ils peuvent également bénéficier eux-mêmes de mesures de sécurité.

Le chiffrement, les contrôles d’accès et les outils de surveillance des menaces peuvent aider les organisations à protéger leurs systèmes d’IA et les données sensibles qu’ils utilisent.

Contrôle et évaluation réguliers

Surveiller en permanence la performance, la conformité et la précision des systèmes d’IA peut aider les entreprises à répondre aux exigences réglementaires et à affiner les modèles d’IA au fil du temps.

Solutions connexes
Solutions de sécurité d’entreprise

Transformez votre programme de sécurité avec le portefeuille de solutions le plus complet.

Découvrir les solutions de cybersécurité
Services de cybersécurité

Transformez votre entreprise et gérez les risques avec des services de conseil en cybersécurité, de cloud et de sécurité gérée.

    Découvrir les services de cybersécurité
    Cybersécurité et intelligence artificielle (IA)

    Accélérez et précisez le travail des équipes de sécurité, et rendez-les plus productives grâce à des solutions de cybersécurité cyberalimentées par l’IA.

    Découvrir AI cybersecurity
    Passez à l’étape suivante

    Que vous ayez besoin de solutions de sécurité des données, de gestion des points de terminaison ou de gestion des identités et des accès (IAM), nos experts sont prêts à travailler avec vous pour atteindre une excellente posture de sécurité. Transformez votre entreprise et maîtrisez vos risques avec un leader mondial de la cybersécurité, du cloud et des services de sécurité gérés.

    Découvrir les solutions de cybersécurité Découvrir les services de cybersécurité