Im vergangenen Sommer veröffentlichten die Cybersicherheitsforscher von HYAS den Proof-of-Concept für EyeSpy, eine vollständig autonome, KI-gestützte Malware, die nach ihren Angaben eigenständig denken sowie Cyberangriffe strategisch planen und ausführen kann.1 Dieses Experiment, warnten sie, sei ein Vorgeschmack auf die neue Ära verheerender, unentdeckbarer Cyberbedrohungen, die die künstliche Intelligenz bald entfesseln würde.
Oder vielleicht auch nicht.
„Es gibt so viel Hype um KI, im Bereich der Cybersicherheit und anderswo“, erläutert Ruben Boonen, CNE Capability Development Lead bei IBM® X-Force Adversary Services. „Aber meiner Meinung nach sollten wir uns derzeit keine allzu großen Sorgen über KI-gestützte Malware machen. Ich habe noch keine Demonstrationen gesehen, bei denen der Einsatz von KI etwas ermöglicht, das ohne sie nicht möglich gewesen wäre.“
Die Bedrohungslandschaft entwickelt sich ständig weiter und es könnte der Zeitpunkt kommen, zu der KI-basierte Malware eine ernsthafte Gefahr darstellt. Aber zumindest vorerst sind viele Sicherheitsexperten der Meinung, dass Diskussionen über KI-Malware eine Mischung aus reiner Spekulation und nicht wenig Marketing sind.
Die Bedrohungsakteure, die heute KI einsetzen, nutzen sie größtenteils, um dieselben grundlegenden Skripte und Social-Engineering-Angriffe zu verfeinern, mit denen Cybersicherheitsteams bereits vertraut sind. Das bedeutet, dass sich Unternehmen schützen können, indem sie sich weiterhin auf das Wesentliche konzentrieren, wie das Patchen von Assets, die Schulung von Mitarbeitern und die Investition in die richtigen Bedrohungserkennungslösungen.
Sowohl universell einsetzbare große Sprachmodelle (LLMs) wie Llama von Meta als auch zielgerichtete Anwendungen wie watsonx Code Assistant von IBM können Programmierern helfen, die Entwicklung zu beschleunigen, indem sie Code schreiben, debuggen und übersetzen.
Die Sorge besteht darin, dass diese Vorteile nicht nur wohlwollenden Programmierern vorbehalten sind. Durch Jailbreaking legitimer KI-Systeme oder Entwicklung ihrer eigenen könnten Bedrohungsakteure hypothetisch diese KI-Tools nutzen, um den Malware-Entwicklungsprozess zu optimieren.
Einige befürchten, dass KI die Eintrittsbarriere in den Malware-Markt senken könnte, sodass mehr Cyberkriminelle bösartige Programme unabhängig von ihrem Kenntnisstand schreiben können. Schlimmer noch: KI-Technologien könnten Bedrohungsakteuren dabei helfen, brandneue Malware zu entwickeln, die gängige Abwehrmaßnahmen umgehen und unermesslichen Schaden anrichten kann.
Einige Forscher haben versucht, die Gefahren zu veranschaulichen, die von KI-generierten Cyberbedrohungen ausgehen können, indem sie mit verschiedenen Möglichkeiten experimentierten, KI in Malware zu integrieren:
Diese Experimente erscheinen auf den ersten Blick alarmierend, viele Experten halten sie jedoch für kaum mehr als Kuriositäten.
„Dinge wie [BlackMamba und EyeSpy] machen mir überhaupt keine Angst“, sagt Boonen, der Red Teaming-Übungen durchführt, um Unternehmen dabei zu helfen, ihre Abwehrmaßnahmen gegen echte Cyberangriffe zu stärken.
„Wenn ich mir die technischen Details ansehe, wie diese Programme implementiert werden, glaube ich nicht, dass sie Erfolg haben würden, wenn wir sie bei unseren Kunden einsetzen würden“, erklärt er.
Es gibt mehrere Gründe, warum Boonen und andere heute dem Diskurs über KI-generierte Malware skeptisch gegenüberstehen.
Erstens tun diese „neuen Bedrohungen“ nicht wirklich etwas, was die Sicherheitsteams nicht vorher gesehen haben, was bedeutet, dass die bestehenden Verteidigungsstrategien immer noch gegen sie wirksam sind.
„Die mit BlackMamba und EyeSpy verwendeten Konzepte sind nicht neu“, meint Kevin Henson, Lead Malware Reverse Engineer bei IBM X-Force Threat Intelligence. „Verteidiger sind schon früher auf Malware mit diesen Funktionen gestoßen – im Verborgenen des Speichers, in polymorphem Code.“
Henson verweist auf Malware-Autoren, die Techniken wie Metaprogrammierung verwenden, um wichtige Daten zu verschleiern und bestimmte Elemente, wie z. B. Codemuster, bei jeder Kompilierung eindeutig zu generieren.
Zweitens verfügen LLMs zwar über beeindruckende Programmierkenntnisse, aber es ist unwahrscheinlich, dass sie in absehbarer Zeit in der Lage sein werden, völlig neue Malware zu erzeugen.
„Ich denke, dass die Verwendung von ChatGPT [und anderen KI-Tools] zur Generierung von Malware Einschränkungen hat, weil der Code von Modellen generiert wird, die anhand einer Reihe von Daten trainiert wurden“, sagt Henson. „Infolgedessen wird der generierte Code nicht so komplex sein wie ein von einem Menschen entwickelter Code.“
Obwohl schon viel darüber gesprochen wurde, dass KI und maschinelle Lernalgorithmen eine Rückkehr der Cyberkriminalität einläuten könnten, indem sie die Produktion von Malware reduzieren, sind die aktuellen Modelle noch nicht so weit. Die Benutzer müssen immer noch einige Kenntnisse über Code mitbringen, um zu gewährleisten, dass ein LLM die gewünschten Aktionen ausführt.
„KI steigert die Produktivität und verringert bis zu einem gewissen Grad das für das Schreiben von Code erforderliche Wissen“, erklärt Boonen. „Es handelt sich jedoch um keine massive Reduzierung.“
Würden Bedrohungsakteure heute mit der Implementierung KI-gestützter Malware auf breiter Front beginnen, wäre die Wahrscheinlichkeit groß, dass eine Flut von minderwertigem Code entsteht, der von Verteidigern leicht erkannt und entschärft werden könnte.
„Ich will damit nicht sagen, dass es in Zukunft keine technische Möglichkeit für die Entwicklung einer wirklich guten Malware gibt, die KI nutzt“, betont Boonen. „Wenn sich die Modelle weiterhin so schnell verbessern, glaube ich, dass sie irgendwann bedeutende Leistungen erbringen können. Dann müssen wir sie ernster nehmen. Aber ich glaube nicht, dass wir schon so weit sind.“
„Dieses Problem spiegelt genau das wider, was bei der Softwareentwicklung passiert, da Malware einfach nur bösartige Software ist“, so Golo Mühr, Malware Reverse Engineer bei IBM X-Force Threat Intelligence.
„Im Moment sehen wir nicht viele Apps, die KI nahtlos in ihren Code integriert haben“, erklärt Mühr. „Wenn wir sehen, dass KI in Software allgemein vorherrschend wird, können wir davon ausgehen, dass sie auch in Malware zum Einsatz kommt.“
Dieses Muster hat sich laut X-Force Threat Intelligence Index in der Vergangenheit abgespielt. Ransomware und Cryptojacking wurden erst dann zu einer allgegenwärtigen Bedrohung, als die legitimen Technologien, die diese Angriffe ermöglichen – Microsoft Active Directory für Ransomware, Cryptocurrency und Infrastructure as a Service für Cryptojacking – ebenfalls vollständig übernommen wurden.
Mühr weist darauf hin, dass jede neue Technologie eine angemessene Kapitalrendite aufweisen muss, bevor sie von Entwicklern übernommen wird – und das Gleiche gilt für Malware-Entwickler.
Cybersicherheitsforscher, darunter auch IBMs X-Force, haben noch keine Beweise dafür gefunden, dass Bedrohungsakteure künstliche Intelligenz zur Generierung neuer Malware im freien Raum einsetzen.. Cyberkriminelle nutzen KI-Tools jedoch für alltäglichere bösartige Aktivitäten, wie das Schreiben einfacher Skripte und Phishing-E-Mails.
„Bei der legitimen Softwareentwicklung sehen wir, dass generative KI als Ergänzung des Entwicklungsprozesses zur Erstellung von Anleitungen und grundlegenden Codeauszügen eingesetzt wird“, bemerkt Mühr. „Diese Art von KI-Technologie wird bereits heute von Bedrohungsakteuren für böswillige Zwecke eingesetzt, was wir aber nicht als extrem ausgefeilte Bedrohung wahrnehmen würden.“
Microsoft und OpenAI haben beispielsweise mehrere nationalstaatliche Akteure erwischt und daran gehindert, ihre LLMs als Codierungsassistenten einzusetzen. Die russische Gruppe „Forest Blizzard“ nutzte die LLMs zur Untersuchung von Schwachstellen in Zielsystemen, während die iranische Gruppe „Crimson Sandstorm“ sie zum Schreiben von Web-Scraping-Skripten verwendete.3
Jedoch sind LLM-gestützte Phishing-Angriffe für viele Sicherheitsexperten die bedenklichste bösartige Verwendung von KI.
„Ich halte den Einsatz von generativer KI für Imitationen und Phishing für die größte Bedrohung“, betont Mühr. „Das ist ein Anwendungsfall, in dem KI durch die Generierung menschenähnlicher Texte, Videos und Audios bereits einen großen Einfluss haben kann. Und wir haben bereits Anzeichen dafür gesehen, dass dies für Phishing als Waffe eingesetzt wird.“
So können Hacker beispielsweise LLMs für das Schreiben von Phishing-E-Mails verwenden, die die Stimmen vertrauenswürdiger Marken nachahmen. In diesen von LLM generierten E-Mails fehlen auch die üblichen Warnsignale, wie grammatikalische Fehler und ungünstige Formulierungen, an denen potenzielle Opfer Betrügereien oft erkennen.
Böswillige Akteure können KI auch für die Generierung von Deepfakes nutzen, die ihre Scams noch überzeugender machen. So nutzten beispielsweise Betrüger in der VR Hongkong eine von KI generierte Videokonferenz, um ein Opfer dazu zu bringen, 25 Millionen US-Dollar auf betrügerische Bankkonten zu überweisen.4
Diese KI-gestützten Scams können sowohl menschliche Ziele als auch die Systeme für die Unternehmenssicherheit überlisten, die sie verhindern sollen. Die von X-Force als „Hive0137“ bezeichnete Gruppe von Cyberkriminellen nutzt beispielsweise vermutlich KI zur Generierung von Variationen von Phishing-E-Mails, damit sie an Filtern vorbeikommen, die nach bekannten bösartigen Nachrichten suchen.
KI hat das Thema Cybersicherheit nicht grundlegend verändert. Stattdessen konnten die Angreifer ihre ohnehin schon vorhandenen Aktivitäten optimieren. Das bedeutet, dass die beste Verteidigungslinie gegen KI-gestützte Angriffe für Unternehmen die Beibehaltung grundlegender Maßnahmen ist.
„Wenn wir davon sprechen, dass KI zur Durchführung von Angriffen eingesetzt wird, ändert sich das Risiko und die Reaktion für die Verteidiger nicht“, betont Ben Shipley, Strategic Threat Analyst bei IBM X-Force Threat Intelligence. „Malware, die von KI oder Menschen geschrieben wurde, wird sich immer noch wie Malware verhalten. Von KI geschriebene Ransomware hat keine größeren Auswirkungen auf ein Opfer als Ransomware, die von Menschen geschrieben wurde.“
Standard-Sicherheitsmaßnahmen können zur Schließung von Schwachstellen beitragen, die Malware – ob KI-gestützt oder nicht – zum Eindringen in ein System ausnutzen muss. So können formelle Patch-Management-Programme beispielsweise Softwarefehler beheben, bevor böswillige Akteure sie finden. Starke Identitäts- und Zugriffskontrollen wie die Multi-Faktor-Authentifizierung können Konto-Hijacking bekämpfen, eine der häufigsten Vektoren für Cyberangriffe.
Auch andere Maßnahmen können bei der Bekämpfung von KI-Angriffen unterstützen:
Während böswillige Akteure KI-Tools zur Optimierung ihrer Prozesse nutzen können, können — und sollten — Verteidiger dasselbe tun.
Laut dem IBM Data Breach Kostenreport können Unternehmen, die KI und Automatisierung für die Cybersicherheit einsetzen, die Kosten für Datenschutzverletzungen deutlich senken.
KI kann die Präventionsbemühungen effektiver machen und die Fristen für die Erkennung und Beseitigung von Bedrohungen verkürzen, wodurch sich die Kosten einer durchschnittlichen Datenschutzverletzung um 1,88 Millionen USD verringern. (In Unternehmen, die umfassend in KI und Automatisierung im Sicherheitsbereich investieren, kostet eine Sicherheitsverletzung im Durchschnitt 3,84 Millionen USD. In Unternehmen ohne KI und Automatisierung im Sicherheitsbereich kostet eine Sicherheitsverletzung im Durchschnitt 5,72 Mio. USD.)
Traditionelle, regelbasierte KI ist bereits in vielen gängigen Cybersicherheitstools wie Endpoint Detection and Response (EDR) und Analyse des Benutzer- und Entitätsverhaltens (UEBA) enthalten. Aber auch neue generative KI-Modelle könnten Verteidigern helfen.
„Meiner Meinung nach werden die generativen KI-Modelle einen großen Einfluss auf Bereiche wie die Reaktion auf Vorfälle haben“, erklärt Boonen. „Sie können zum Beispiel Vorfälle schneller verstehen oder zusammenfassen, da die Modelle viel mehr Daten in kürzerer Zeit analysieren können als Menschen.“
Somit wird der Prozess für Analysten beschleunigt, die diese Erkenntnisse zum schnelleren und effektiveren Stoppen von Bedrohungen nutzen können.
Und während KI die Deepfakes produzieren kann, mit denen böswillige Akteure Menschen täuschen, kann sie auch eine wichtige Rolle bei der Bekämpfung eben dieser Betrugsversuche spielen.
„Einige Bilder sind schon jetzt kaum noch von echten Bildern zu unterscheiden. Daher vermute ich, dass die meisten Menschen in Zukunft nicht mehr in der Lage sein werden, sie zu unterscheiden“, betont Boonen. „Wir müssen also KI-Modelle so trainieren, dass sie sagen können: ‚Dieses Video ist eine Fälschung‘ oder ‚Dieses Bild ist eine Fälschung‘, wenn Menschen das nicht mehr können.“
Wie die Zukunft der KI-gestützten Bedrohungen wird auch die Auswirkung der KI auf Anwender im Bereich der Cybersicherheit wahrscheinlich eher ein allmählicher Wandel als ein explosiver Umbruch sein. Anstatt sich vom Hype anstecken oder von den Unkenrufen mitreißen zu lassen, sollten Sicherheitsteams lieber das tun, was sie schon immer getan haben: mit beiden Beinen fest in der Gegenwart stehen und die Zukunft im Auge behalten.
Alle Links befinden sich außerhalb von ibm.com.
1. EyeSpy poof-of-concept, HYAS, 1. August 2023.
2. BlackMamba: using AI to generate polymorphic malware, HYAS, 31. Juli 2023.
3. Staying ahead of threat actors in the age of AI, Microsoft, 14. Februar 2024.
4. Finance worker pays out USD 25 million after video call with deepfake 'chief financial officer,' CNN, 4. Februar 2024.
Hackergesteuerte Offensive. Forschungsgesteuerte Defensive. Erkenntnisgesteuerter Schutz.
Prognostizieren, verhindern und reagieren Sie auf moderne Bedrohungen und erhöhen Sie so die Resilienz Ihres Unternehmens.
Prävention rund um die Uhr und schnellere, KI-gestützte Erkennung und Reaktion.