L’été dernier, les chercheurs en cybersécurité de HYAS ont publié la preuve de concept d’EyeSpy, une souche de logiciel malveillant entièrement autonome et alimentée par l’IA qui, selon eux, peut raisonner, élaborer des stratégies et mener des cyberattaques toute seule.1 Cette expérience, ont-ils averti, se voulait un aperçu de la nouvelle ère de cybermenaces dévastatrices et indétectables que l’intelligence artificielle allait bientôt déclencher.
Ou pas.
« Il y a tellement d’engouement autour de l’IA, dans la cybersécurité et ailleurs », explique Ruben Boonen, responsable du développement des capacités CNE chez IBM X-Force Adversary Services. « Mais je pense qu’à l’heure actuelle, nous ne devons pas nous inquiéter des logiciels malveillants alimentés par l’IA. Je n’ai assisté à aucune démonstration où l’utilisation de l’IA permet de réaliser quelque chose qui n’aurait pas été possible sans elle. »
L’environnement de la menace est en constante évolution, et il se peut qu’un jour le logiciel malveillant basé sur l’IA représente un grave danger. Mais pour l’instant, au moins, de nombreux experts en sécurité pensent que les discussions sur les logiciels malveillants basés sur l’IA sont un mélange de pure spéculation et de marketing.
Les acteurs malveillants qui utilisent l’IA aujourd’hui ne font qu’affiner les scripts de base et les attaques d’ingénierie sociale que les équipes de cybersécurité connaissent déjà. Cela signifie que les entreprises peuvent continuer à se protéger en respectant les principes fondamentaux : appliquer des correctifs aux actifs, sensibiliser les salariés et investir dans des solutions de détection des menaces efficaces.
Les grands modèles de langage (LLM) à usage général, tels que Llama de Meta, et les applications ciblées comme watsonx Code Assistant d’IBM, permettent aux programmeurs d’accélérer le développement en écrivant, en déboguant et en traduisant le code.
Le problème est que ces programmeurs bienveillants ne sont pas les seuls à profiter de ces avantages. En débridant des systèmes d’IA légitimes ou en créant les leurs, les acteurs malveillants peuvent en théorie utiliser ces outils d’IA pour rationaliser le développement de logiciels malveillants.
Certains craignent que l’IA ne facilite l’entrée des logiciels malveillants sur le marché, permettant à davantage de cybercriminels d’écrire des programmes malveillants, quel que soit leur niveau de compétence. Ou, pire encore, les technologies d’IA pourraient les aider à développer de tout nouveaux logiciels malveillants, capables de contourner les défenses courantes et de faire des ravages incalculables.
Plusieurs chercheurs ont tenté d’illustrer les dangers liés aux cybermenaces générées par l’IA en expérimentant différents moyens d’intégrer l’IA aux logiciels malveillants :
Si ces expériences semblent alarmantes au premier abord, de nombreux experts en sécurité les considèrent comme de simples curiosités.
« Des choses comme [BlackMamba et EyeSpy] ne m’effraient pas du tout », explique M. Boonen, qui effectue des exercices de red teaming pour aider les organisations à renforcer leurs défenses contre les véritables cyberattaques.
« Quand je regarde les détails techniques de la mise en œuvre de ces programmes, je ne pense pas qu’ils auraient de succès si nous les utilisions dans le cadre de nos engagements avec nos clients », explique-t-il.
Il y a plusieurs raisons pour lesquelles Boonen et d’autres sont sceptiques à l’égard du discours sur les logiciels malveillants générés par l’IA aujourd’hui.
Tout d’abord, ces « nouvelles menaces » ne font rien que les équipes de sécurité n’aient déjà vu, ce qui signifie que les stratégies de défense existantes permettent de les combattre efficacement.
« Les concepts présentés avec BlackMamba et EyeSpy ne sont pas nouveaux », déclare Kevin Henson, ingénieur principal en rétro-analyse des logiciels malveillants chez IBM X-Force Threat Intelligence. « Les défenseurs ont déjà rencontré des logiciels malveillants dotés de ces capacités, c’est-à-dire dissimulés dans la mémoire, en code polymorphe. »
Henson cite l’exemple des auteurs de logiciels malveillants qui utilisent des techniques telles que la métaprogrammation pour obscurcir des données importantes et générer de manière unique certains éléments, tels que des modèles de code, à chaque compilation.
Deuxièmement, bien que les LLM aient des compétences de codage impressionnantes, il est peu probable qu’ils puissent générer des variantes de logiciels malveillants de sitôt.
« Je pense que l’utilisation de ChatGPT [et d’autres outils d’IA] pour générer des logiciels malveillants a ses limites, car le code est généré par des modèles qui ont été entraînés sur un jeu de données », explique M. Henson. « Par conséquent, le code généré ne sera pas aussi complexe que le code développé par un humain. »
Bien que l’on ait beaucoup parlé de la manière dont l’IA et les algorithmes de machine learning pourraient contribuer à la renaissance de la cybercriminalité en déqualifiant la production de logiciel malveillant, les modèles actuels n’existent pas encore. Les utilisateurs ont toujours besoin de connaître une chose ou deux sur le code pour s’assurer que tout ce qu’un LLM génère fait ce qu’ils veulent.
« L’IA est un catalyseur de productivité et, dans une certaine mesure, il y a une réduction du niveau de connaissances requis pour écrire du code lors de leur utilisation, explique Boonen. Mais il ne s’agit pas d’une réduction massive. »
En fait, si les acteurs de la menace devaient commencer à mettre en œuvre à grande échelle des logiciels malveillants basés sur l’IA aujourd’hui, il y a de fortes chances que cela produise une surabondance de code de mauvaise qualité que les défenseurs détecteraient et désamorceraient facilement.
« Je ne dis pas qu’il n’y a aucune possibilité technique à l’avenir de créer un très bon logiciel malveillant qui tire parti de l’IA, explique Boonen. Si les modèles continuent de s’améliorer au rythme où ils le font, je pense qu’il arrivera un moment où ils seront capables de faire des choses substantielles. Nous devrons alors la prendre plus au sérieux. Mais je ne pense pas que nous soyons encore à ce stade. »
« Ce problème est étroitement lié à ce qui se passe dans le développement de logiciels, car les logiciels malveillants ne sont que des logiciels malveillants », explique Golo Mühr, responsable de l’ingénierie inverse des logiciels malveillants chez IBM X-Force Threat Intelligence.
« À l’heure actuelle, peu d’applications intègrent l’IA de façon fluide à leur code, explique Mühr. Lorsque nous constatons que l’IA devient prédominante dans les logiciels en général, nous pouvons nous attendre à ce qu’elle devienne également courante dans les logiciels malveillants. »
Cette tendance s’est produite dans le passé, comme le rapporte le X-Force Threat Intelligence Index. Les ransomwares et le cryptojacking ne sont devenus des menaces omniprésentes que lorsque les technologies légitimes permettant ces attaques (Microsoft Active Directory pour les ransomwares, la cryptomonnaie et l’infrastructure en tant que service pour le cryptojacking) ont également été pleinement adoptées.
Selon M. Mühr, toute nouvelle technologie doit fournir un retour sur investissement satisfaisant avant que les développeurs ne l’adoptent, et il en va de même pour les développeurs de logiciels malveillants.
Les chercheurs en cybersécurité, y compris X-Force d’IBM, n’ont pas encore trouvé de preuves que des acteurs de la menace utilisent l’intelligence artificielle pour générer de nouveaux logiciels malveillants dans la nature. Mais les cybercriminels utilisent les outils d’IA pour des activités malveillantes plus banales, telles que la rédaction de scripts simples et d’e-mails de phishing.
« Dans le cadre du développement légitime de logiciels, nous constatons que l’IA générative est utilisée pour compléter le processus de développement, en fournissant des conseils et en créant des extraits de code de base, explique M. Mühr. Ce type de technologie IA est déjà utilisé par les acteurs de la menace à des fins malveillantes aujourd’hui, mais ce n’est pas quelque chose que nous considérerions comme une menace extrêmement sophistiquée. »
Par exemple, Microsoft et OpenAI ont intercepté plusieurs acteurs étatiques qui tentaient d’utiliser leurs LLM comme assistants de codage. Le groupe russe « Forest Blizzard » a utilisé les LLM pour rechercher les vulnérabilités dans les systèmes cibles, tandis que le groupe iranien « Crimson Sandstorm » les a utilisés pour écrire des scripts de récupération de données sur le Web.3
Pour de nombreux experts en sécurité, les attaques par hameçonnage assistées par LLM constituent le cas d’utilisation malveillante le plus préoccupant de l’IA.
« À l’heure actuelle, je pense que la plus grande menace est l’utilisation de l’IA générative à des fins d’usurpation d’identité et de phishing, déclare M. Mühr. C’est un cas d’utilisation dans lequel l’IA peut déjà avoir un impact énorme en créant du texte, des vidéos et des sons similaires à ceux des humains. Et nous avons déjà vu des indicateurs qui montrent que cette IA est utilisée pour le phishing. »
Par exemple, les pirates peuvent utiliser les LLM pour rédiger des e-mails d’hameçonnage imitant fidèlement la voix de marques connues. Ces e-mails générés par LLM ne comportent pas non plus de signaux d’alarme courants, comme les fautes de grammaire et les formulations maladroites, qui permettent généralement aux destinataires d’identifier les escroqueries.
Les acteurs malveillants peuvent également exploiter l’IA pour générer des deepfakes qui rendent leurs arnaques encore plus convaincantes. Par exemple, dans la RAS de Hong Kong (RPC), des escrocs ont eu recours à une vidéoconférence générée par l’IA pour amener une victime à transférer 25 millions de dollars sur des comptes bancaires frauduleux.4
Ces escroqueries alimentées par l’IA peuvent tromper à la fois les cibles humaines et les systèmes de sécurité d’entreprise censés les arrêter. Par exemple, le groupe de cybercriminels que X-Force appelle « Hive0137 » utilise probablement l’IA pour générer des variantes des e-mails d’hameçonnage et passer à travers les filtres qui recherchent des messages malveillants connus.
L’IA n’a pas fondamentalement changé le champ de bataille de la cybersécurité. Elle permet tout simplement aux acteurs malveillants de rationaliser ce qu’ils faisaient déjà. Cela signifie que la meilleure ligne de défense contre les attaques alimentées par l’IA est de s’en tenir aux principes fondamentaux.
« Si nous parlons de l’utilisation de l’IA pour mener des attaques, le risque et la réponse ne changent pas pour les défenseurs », déclare Ben Shipley, analyste stratégique des menaces chez IBM X-Force Threat Intelligence. « Les logiciels malveillants créés par l’IA ou par un humain continueront de se comporter comme des logiciels malveillants. Les ransomwares écrits par l’IA n’ont pas plus d’impact sur la victime que les ransomwares écrits par un humain. »
Les mesures de sécurité standard permettent de corriger les vulnérabilités que les logiciels malveillants (assistés ou non par l’IA) doivent exploiter pour pénétrer dans un système. Par exemple, les programmes officiels de gestion des correctifs permettent de corriger les bogues avant que des acteurs malveillants ne les découvrent. Des contrôles des identités et des accès efficaces, comme l’authentification à étapes, permettent de lutter contre le piratage de compte, l’un des vecteurs les plus courants de cyberattaques aujourd’hui.
D’autres mesures permettent également de se protéger des attaques d’IA :
Puisque les acteurs malveillants s’appuient sur les outils d’IA pour rationaliser leurs processus, les défenseurs peuvent et doivent faire de même.
Selon le Rapport sur le coût d’une violation de données publié par IBM, les entreprises qui se tournent vers l’IA et l’automatisation pour assurer leur cybersécurité peuvent réduire considérablement les coûts liés aux violations.
En améliorant la prévention et en accélérant la détection ainsi que la neutralisation des menaces, l’IA permet de réduire de 1,88 million de dollars le coût moyen d’une violation de données. (Pour les entreprises qui investissent massivement dans l’IA et l’automatisation pour assurer leur sécurité, le coût moyen d’une violation s’élève à 3,84 millions de dollars, contre 5,72 millions de dollars pour celles qui ne font pas ce choix.)
L’IA traditionnelle, basée sur des règles, est déjà présente dans bon nombre d’outils de cybersécurité courants, tels que les outils de détection et réponse des menaces sur les terminaux (EDR) et les outils d’analyse du comportement des utilisateurs et des entités (UEBA). Les nouveaux modèles d’IA générative promettent eux aussi d’aider les défenseurs.
« Je pense que les modèles IA auront un impact important sur des sujets tels que la réponse aux incidents, explique Boonen. Par exemple, ils pourraient être en mesure de comprendre ou de résumer les incidents plus rapidement, car les modèles peuvent examiner beaucoup plus de données en moins de temps que ne le ferait un humain. »
Cela fait gagner du temps aux analystes, qui se servent de ces informations pour arrêter les menaces plus rapidement et plus efficacement.
Et si les IA peuvent produire les deepfakes que les acteurs malveillants utilisent pour tromper les gens, elles peuvent également jouer un rôle essentiel dans la lutte contre ces mêmes stratagèmes.
« Certaines images semblent déjà presque impossibles à distinguer des images réelles, et à mesure que nous avançons, je soupçonne que la plupart des gens ne seront pas en mesure de faire la différence, explique Boonen. Je pense donc que nous devrons entraîner des modèles IA à dire : Cette vidéo est fausse ou Cette image est fausse, ce qui est impossible pour les humains. »
Comme pour ce qui est de l’avenir des menaces alimentées par l’IA, l’impact de l’IA sur les professionnels de la cybersécurité sera probablement un changement progressif plutôt qu’un bouleversement explosif. Plutôt que de se laisser emporter par le battage médiatique ou de se laisser emporter par les prophètes de malheur, les équipes de sécurité feraient mieux de faire ce qu’elles ont toujours fait : garder un œil sur l’avenir avec les deux pieds fermement ancrés dans le présent.
Tous les liens sont externes au site ibm.com.
1. EyeSpy poof-of-concept, HYAS, 1er août 2023.
2. BlackMamba : using AI to generate polymorphic malware, HYAS, 31 juillet 2023.
3. Staying ahead of hackers in the age of AI, Microsoft, 14 février 2024.
4. Finance worker pays out USD 25 million after video call with deepfake « chief financial officer », CNN, 4 février 2024.
Télécharger
S'inscrire
En savoir plus
Lancez-vous