Le paysage actuel des cybermenaces est complexe. Le passage au cloud et aux environnements de cloud hybride a entraîné une prolifération des données et un élargissement des surfaces d’attaque, et les acteurs malveillants continuent de leur côté à trouver de nouveaux moyens d’exploiter les vulnérabilités. Et dans le même temps, les professionnels de la cybersécurité sont rares, plus de 700 000 postes étant à pourvoir rien qu’aux Etats-Unis.2
Résultat : les cyberattaques sont désormais plus fréquentes et plus coûteuses. Selon le Rapport sur le coût d’une violation de données , le coût moyen pour remédier à une violation de données à l’échelle mondiale en 2023 était de 4,45 millions de dollars, soit une augmentation de 15 % en trois ans.
La sécurité assistée par l’IA peut apporter une solution. En automatisant la détection et la réponse aux menaces, l’IA permet de prévenir plus facilement les attaques et d’identifier les acteurs malveillants en temps réel. Les outils d’IA peuvent être utiles dans tous les domaines, qu’il s’agisse de prévenir les attaques par logiciels malveillants (en les identifiant et en les isolant), ou de détecter les attaques par force brute (en reconnaissant et en bloquant les tentatives de connexion répétées).
Grâce à la sécurité assistée par l’IA, les entreprises peuvent surveiller en permanence leurs opérations de sécurité et utiliser des algorithmes de machine learning pour s’adapter à l’évolution des cybermenaces.
Ne pas investir dans la sécurité assistée par l’IA peut s’avérer coûteux. Les organisations qui ne disposent pas d’un système de sécurité assisté par l’IA ont un coût moyen de violation de données de 5,36 millions de dollars, soit 18,6 % de plus que le coût moyen toutes organisations confondues.
Même une sécurité limitée pouvait permettre de réaliser des économies significatives : les entreprises avec une sécurité de l’IA limitée ont fait état d’un coût moyen de 4,04 millions de dollars US par violation de données — soit 400 000 dollars US de moins que la moyenne globale et 28,1 % de moins que celles n’ayant aucune sécurité de l’IA.
Malgré ses avantages, l’IA pose des défis en matière de sécurité, en particulier en ce qui concerne la sécurité des données. La fiabilité des modèles d’IA dépend des données utilisées pour l’entraînement. Les données altérées ou biaisées peuvent générer des faux positifs ou des réponses inexactes. Par exemple, les données d’entraînement biaisées qui sont utilisées pour les décisions d’embauche peuvent renforcer les préjugés sexistes ou raciaux, une situation dans laquelle les modèles d’IA favorisent certains groupes démographiques et en discriminent d’autres.3
Les outils d’IA peuvent également aider les acteurs malveillants à exploiter plus efficacement les vulnérabilités de sécurité. Par exemple, les attaquants peuvent utiliser l’IA pour automatiser la découverte des vulnérabilités d’un système ou générer des attaques par phishing sophistiquées.
Selon Reuters, le Federal Bureau of Investigation (FBI) a constaté une augmentation des cyberintrusions dues à l’IA.4 Un rapport récent a également révélé que 75 % des professionnels de la cybersécurité voient davantage de cyberattaques, et 85 % attribuent cette hausse aux acteurs malveillants qui utilisent l’IA générative.5
À l’avenir, de nombreuses organisations devront chercher des moyens d’investir du temps et des ressources dans la sécurisation de l’IA afin de profiter des avantages de l’intelligence artificielle sans compromettre l’éthique ou la sécurité de l’IA (voir « Bonnes pratiques pour la sécurité de l’IA »).