Le Rapport sur le coût d’une violation de données d’IBM met en évidence une découverte révolutionnaire : l’application de l’automatisation alimentée par l’IA dans le domaine de la prévention a permis aux organisations d’économiser en moyenne 2,2 millions de dollars américains.
Les entreprises utilisent l’IA depuis des années pour la détection, l’investigation et la réponse. Cependant, à mesure que les surfaces d’attaque s’étendent, les responsables de la sécurité doivent adopter une posture plus proactive.
Voici trois façons dont l’IA contribue à rendre cela possible :
La complexité et l’interconnexion accrues sont un casse-tête croissant pour les équipes de sécurité, et les surfaces d’attaque s’étendent bien au-delà de ce qu’elles sont capables de surveiller à l’aide des seules méthodes manuelles. À mesure que les entreprises améliorent leurs stratégies multicloud et intègrent de nouveaux outils SaaS et du code tiers dans le développement et le déploiement de logiciels, le défi ne fait que s’intensifier.
Au-delà de ces surfaces d’attaque plus larges, on relève la complexité accrue des interactions réseau et de nombreux nouveaux points d’entrée d’exploitation potentiels pour les pirates. La gestion de la surface d’attaque (ASM) fournit une protection en temps réel alimentée par l’IA aux infrastructures numériques, quelle que soit la complexité sous-jacente.
L’ASM automatisée complète considérablement l’audit manuel en offrant une visibilité complète sur les surfaces d’attaque. En outre, l’IA apprend des données qu’elle surveille pour améliorer les futurs résultats de détection, mais à une vitesse et à une échelle avec lesquelles les humains ne peuvent pas rivaliser.
Cependant, alors que les outils ASM sont souvent présentés comme des solutions clés en main et sont généralement relativement faciles à déployer, la capacité des équipes de sécurité à interpréter l’énorme afflux de données qu’ils génèrent est essentielle pour maximiser leur impact.
Newsletter sectorielle
Restez au fait des tendances les plus étonnantes du secteur dans le domaine de l’IA, de l’automatisation, des données et bien d’autres avec la newsletter Think. Consultez la déclaration de confidentialité d’IBM.
Lire la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
Le red teaming de l’IA est le processus qui consiste à demander aux utilisateurs de procéder à des tests de résistance des modèles IA en vue de détecter les vulnérabilités potentielles et d’autres problèmes, tels que les biais et les fausses informations. Alors que la plupart des modèles sont conçus avec des garde-fous pour atténuer ces risques, les attaquants tentent régulièrement de les « jailbreaker » en utilisant des invites intelligentes. Pour les équipes rouges, l’objectif est d’y parvenir avant leurs adversaires, ce qui leur donne la possibilité de prendre des mesures correctives.
Les équipes rouges peuvent elles-mêmes utiliser l’IA pour aider à identifier les problèmes potentiels dans les données utilisées pour entraîner les modèles IA. Par exemple, selon le rapport d’IBM, plus d’un tiers des violations de données impliquent des données fantômes. Si ces données, dont la qualité et l’intégrité ne sont pas contrôlées, finissent par être utilisées pour l’entraînement des modèles, les effets en cascade peuvent être importants. L’IA peut aider les équipes rouges à détecter les données fantômes en identifiant les anomalies et les sources de données négligées qui pourraient présenter des risques pour la sécurité. Les équipes rouges peuvent également tester les modèles IA par comparaison en utilisant des méthodes de machine learning contradictoires pour identifier les vulnérabilités.
Contrairement à l’ASM, le red teaming implique des simulations personnalisées spécifiques à l’environnement des données et des menaces de l’organisation. Pour profiter pleinement de ses avantages, les organisations doivent travailler avec des équipes qualifiées capables d’interpréter et d’analyser correctement les résultats et de mettre en œuvre les changements requis.
C’est dans la gestion de la posture que les capacités évolutives de surveillance en temps réel de l’IA brillent vraiment. Lorsque l’ASM révèle les vulnérabilités potentielles des surfaces d’attaque, la gestion de la posture adopte une approche beaucoup plus large en surveillant les configurations, la conformité aux politiques de sécurité et les connexions entre les systèmes internes et externes de manière continue, agile et adaptable.
En automatisant la gestion de la posture avec l’IA, les équipes de sécurité peuvent atténuer les risques en beaucoup moins de temps et accroître leurs efforts sur des infrastructures multicloud complexes pour assurer une cohérence à tous les niveaux. En outre, compte tenu de la réduction de la dépendance aux processus manuels, les risques d’erreur humaine sont considérablement réduits.
Même lorsque des violations se produisent, les entreprises qui intègrent largement l’IA et l’automatisation dans leurs stratégies de gestion de la posture peuvent les identifier et les atténuer près de 100 jours plus rapidement par rapport à celles qui n’utilisent pas du tout l’IA. Naturellement, le temps gagné dans la prévention et la résolution se traduit également par des économies de coûts directs et indirects substantielles.
L’opportunité de l’IA dans le domaine de la cybersécurité est indéniable. Non seulement elle peut aider à faire évoluer les stratégies dans des environnements de plus en plus complexes, mais elle peut également contribuer à démocratiser la sécurité en permettant à des analystes moins expérimentés d’interagir avec les systèmes de sécurité à l’aide de requêtes en langage naturel.
Cependant, cela ne veut pas dire que l’IA remplace l’expertise humaine. Au contraire, elle doit la compléter.
Dans le domaine de la sécurité, l’IA et l’automatisation ont aidé les entreprises à économiser des millions en dommages potentiels et en efforts de résolution, mais pour maximiser son potentiel, elles ont encore besoin du personnel de l’entreprise pour comprendre les données et les informations que l’IA fournit.
C’est pourquoi les services de sécurité gérés ont un rôle de plus en plus important à jouer pour garantir que l’adoption de l’IA est stratégiquement alignée sur les besoins et les objectifs de l’entreprise, au lieu d’être déployée uniquement pour réduire les coûts et la main-d’œuvre.