Seit Jahrzehnten nutzen Phishing-Angriffe menschliche Emotionen aus, um Personen ihre Zugangsdaten und ihr Geld zu entlocken, und dies ist nach wie vor der Fall. Da sich die Technologie seit den ersten Phishing-Fällen in den 1990er Jahren jedoch rasant weiterentwickelt hat, geht es beim Phishing nicht mehr nur darum, offensichtliche Betrugsnachrichten mit Tipp- und Grammatikfehlern zu erkennen. Heute muss man sich fragen, ob der Anruf von einem Freund oder Vorgesetzten tatsächlich echt ist, selbst wenn die Stimme genau wie die der betreffenden Person klingt. Mit dem Aufkommen der künstlichen Intelligenz werden böswillige Akteure immer heimlicher und raffinierter, und jeder muss neu überdenken, was echt ist, sich daran gewöhnen, nach falschen Signalen Ausschau zu halten, und lernen, wie man seine Identität online und offline besser schützen kann.
Social Engineering ist der Oberbegriff für eine Vielzahl von Methoden, mit denen Angreifer und Betrüger Personen dazu verleiten, Informationen preiszugeben, die ihre Identität und Konten gefährden können. Diese Bedrohung bleibt auch einer der häufigsten Angriffsvektoren, die eine Datenschutzverletzung verursachen. Dies wurde durch Mitarbeiterschulungen und fortschrittliche Spamfilter bis zu einem gewissen Grad gemildert, scheint jedoch nicht für die aktuelle Deepfake-Bedrohung zu gelten. Im Jahr 2024 gaben über 80 % der Unternehmen an, dass sie über keine Protokolle zur Abwehr von KI-basierten Angriffen, einschließlich Deepfakes, verfügen.
Darüber hinaus stellte der 2025 Voice Intelligence Report von Pindrop einen deutlichen Anstieg von Deepfake-Betrugsfällen im Vergleich zu den Vorjahren fest, der sich auf 1300 % belief. Deepfake-Angriffe stellen eine beängstigende neue Herausforderung dar, bei der man nicht mehr darauf vertrauen kann, was man sieht oder hört.
Die Technologie hinter Deepfakes wird als Generative Adversarial Network (GAN) bezeichnet. Sie wurde 2014 entwickelt und in einer Forschungsarbeit des Forschers Ian Goodfellow und seiner Kollegen veröffentlicht. Ein GAN ist eine Art von maschinellem Lernmodell, das neue Daten generiert, indem es Muster aus Trainingsdatensätzen lernt. Aber was bedeutet das eigentlich? Ein GAN besteht aus zwei neuronalen Netzen, die ständig miteinander konkurrieren, um realistische, gefälschte Daten zu erstellen. Das eine Netzwerk ist der Generator, das andere der Diskriminator.
Der Generator erstellt synthetische Inhalte, und der Diskriminator entscheidet, ob die Inhalte echt sind. Dieses Hin und Her führt schließlich dazu, dass die gefälschten Inhalte so echt wie möglich erscheinen. Man kann sich das wie das Schärfen eines Schwertes an einem Stahlblock vorstellen. Jedes Mal, wenn das Schwert (der Generator) gegen den Stahlblock (den Diskriminator) geführt wird, wird das Schwert schärfer.
Einige Jahre später, im Jahr 2017, wurde der Begriff „Deepfake“ von einem Reddit-Nutzer mit dem Namen „deepfakes“ geprägt. Diese Person hat das GAN-Konzept böswillig missbraucht. Über ein Konto, das für Inhalte für Erwachsene vorgesehen war, veröffentlichte er einige der ersten öffentlich verbreiteten Deepfake-Videos, in denen er Bilder von unbeteiligten Personen verwendete, um gefälschte Inhalte zu erstellen und diese online zu verbreiten.
Während frühe Deepfakes in der Regel von geringer Qualität und leichter zu erkennen waren. Heute ist das nicht mehr der Fall. Es werden Deepfakes von Stimmen und Bildern veröffentlicht, die nur sehr schwer als Fälschungen zu erkennen sind, was das Konzept der Identität und des Vertrauens in der virtuellen Welt infrage stellt.
Deepfakes wurden 2018 mit der Veröffentlichung von zugänglichen Open-Source-Deepfake-Tools wie DeepFaceLab zum Mainstream. Seitdem sind die technischen Hürden für die Erstellung realistischer Deepfakes stetig gesunken. Im Jahr 2023 erlebte der Markt für Deepfake-Tools einen rasanten Anstieg, mit einem 44-prozentigen Zuwachs bei der Entwicklung dieser Tools. Leider hat die Erstellung nicht einvernehmlicher expliziter Inhalte von Frauen als Motivationsfaktor für die Popularisierung von Deepfake-Tools gedient. Das Problem ist weit verbreitet. Security Hero berichtet, dass im Jahr 2023 etwa 98 % der Deepfake-Videos im Internet expliziter Natur sind und nur 1 % der Opfer in dieser Kategorie männlich sind.
In den letzten Jahren wurden Deepfakes auch zur Manipulation der Politik und für Verbraucherbetrug eingesetzt. Die meisten Ziele von Deepfakes sind Personen des öffentlichen Lebens, vor allem weil im Internet eine Vielzahl von Medienbeispielen über sie verfügbar ist.
Anfang 2024 erhielten die Wähler in New Hampshire einen Robocall, der sich als Präsident Biden ausgab, um sie davon abzuhalten, an den Vorwahlen der Demokraten teilzunehmen. Der böswillige Akteur manipulierte sogar die Anrufer-ID, um als Vorsitzender der Demokratischen Partei aufzutreten. Dieser Vorfall ist ein klares Beispiel für Voice-Phishing „Vishing“, unter Verwendung von Deepfake-Audio. Seitdem hat die FCC die Verwendung von KI-generierten Stimmen in Robocalls zur Unterdrückung von Wählern untersagt.
Es gab auch mehrere Deepfake-Videos mit prominenten Persönlichkeiten des öffentlichen Lebens wie Elon Musk, dem neuseeländischen Premierminister Christopher Luxon und dem kanadischen Premierminister Justin Trudeau. Diese Deepfake-Videos warben für verschiedene Kryptowährungsprogramme, um potenzielle Investoren zu täuschen.
Es gibt auch legitimere Anwendungsbereiche für Deepfake-Technologie. So haben Forscher am MIT Center for Advanced Virtuality eine Deepfake-Rede von Präsident Richard Nixon über eine gescheiterte Mondlandung erstellt. Dieses Projekt wurde von Studenten ins Leben gerufen, um auf die Bedeutung der Medienkompetenz im Zeitalter der Deepfakes aufmerksam zu machen. Auch Disney und andere große Hollywood-Studios haben in den Einsatz dieser Technologie investiert, um Schauspieler zu verjüngen und Filme mit fortschrittlichen visuellen Effekten zu versehen.
Think-Newsletter
Schließen Sie sich Führungskräften im Bereich Sicherheit an, die von den kuratierten Nachrichten zu KI, Cybersicherheit, Daten und Automatisierung im Think Newsletter profitieren. Lernen Sie schnell von Experten-Tutorials und Erläuterungen, die direkt in Ihren Posteingang geliefert werden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Im Folgenden werden vier bemerkenswerte Fälle aufgeführt, in denen Deepfake-Technologie für Betrug, Täuschung und Identitätsdiebstahl eingesetzt wurde.
Anfang 2024 bestätigte das multinationale Ingenieurbüro Arup, dass es durch einen Deepfake-Betrug einen Verlust von 25 Millionen US-Dollar erlitten hat.
Ein Mitarbeiter in Hongkong erhielt eine Phishing-E-Mail vom britischen Büro von Arup, in der eine „geheime” Transaktion angefordert wurde. Natürlich war der Mitarbeiter zunächst misstrauisch. Sein Misstrauen wurde zerstreut, als er an einem Videoanruf mit dem Finanzvorstand und mehreren anderen Mitarbeitern teilnahm. Er erkannte diese Gesichter und ihre Stimmen und überwies daraufhin 200 Millionen Hongkong-Dollar (25,6 Millionen US-Dollar). Das Geld wurde in 15 Überweisungen an fünf verschiedene Banken überwiesen, bevor der Betrug entdeckt wurde.
Rob Greig, Chief Digital Information Officer bei Arup, hat den Vorfall damals mit dem World Economic Forum besprochen. Greig beschrieb den Vorfall eher als „technologiegestütztes Social Engineering” denn als Cyberangriff. Es gab keine Systemkompromittierung oder unbefugten Zugriff auf Daten. Die Menschen wurden dazu verleitet, Transaktionen durchzuführen, die sie für echt hielten. Greig versuchte sogar, ein Deepfake-Video von sich selbst zu erstellen, was ihm in weniger als einer Stunde gelang. Er ist außerdem der Ansicht, dass dies häufiger vorkommt, als man denkt.
Dieser Fall verdeutlicht den erheblichen finanziellen Schaden, den Deepfake-Phishing einem Unternehmen zufügen kann. Ähnliche Fälle haben auch Einzelpersonen betroffen, wobei Senioren Notrufe erhielten, in denen sich die Anrufer als ihre Angehörigen ausgaben.
Die Gefahr von Deepfakes erstreckt sich nicht nur auf Persönlichkeiten des öffentlichen Lebens und Führungskräfte von Unternehmen. Im Jahr 2024 kam es zu einem Fall, in dem ein Schulleiter in Baltimore sein Leben aufgrund eines KI-generierten Audioclips, in dem er rassistische und antisemitische Äußerungen zu tätigen schien, völlig auf den Kopf gestellt wurde.
Ein gefälschter Audioclip des Schulleiters der Pikesville High School, Eric Eiswert, verbreitete sich viral im Internet, da er darin scheinbar schädliche und abfällige Äußerungen machte. Der Clip wurde weit über zwei Millionen Mal angesehen. Sowohl online als auch im realen Leben gab es heftige Reaktionen. Die lokale Gemeinschaft war besonders empört, da Pikesville einen hohen Anteil an schwarzen und jüdischen Einwohnern hat.
Aufgrund der negativen Reaktionen nahm Eiswert Urlaub, und die Polizei wurde beauftragt, sein Haus zu bewachen, da er Drohungen erhielt und Belästigungen ausgesetzt war. Auch an der Schule wurden die Sicherheitsvorkehrungen verstärkt.
Eiswerts anfängliche Verteidigung, dass der Clip gefälscht sei, wurde negativ aufgenommen und als Versuch von Eiswert, sich der Verantwortung zu entziehen, abgetan. Der Clip wurde ursprünglich im Januar 2024 veröffentlicht. Es dauerte bis April, bis die örtliche Polizei bestätigte, dass die Aufzeichnung gefälscht war. Die Polizei nahm den Sportdirektor der Schule, Dazhon Darien, wegen Vorwürfen im Zusammenhang mit dem gefälschten Clip fest. Eiswert hatte Darien wegen Diebstahls von Schulgeldern und Problemen bei der Arbeitsleistung untersucht. Im April 2025 bekannte sich Dazhon Darien schuldig, KI-Kloning-Tools erworben zu haben.
Der Vorfall hatte negative Auswirkungen auf den Ruf von Herrn Eiswert, sodass er sich entschloss, den Arbeitsplatz zu wechseln und an einer anderen Schule zu arbeiten.
Einer der ersten größeren Deepfake-Angriffe ereignete sich im Jahr 2019, als Deepfake-Audio verwendet wurde, um 243.000 US-Dollar von einem britischen Unternehmen zu erbeuten.
Der CEO eines nicht genannten britischen Energieunternehmens erhielt einen Anruf vom Geschäftsführer der deutschen Muttergesellschaft. Der britische CEO bemerkte, dass der Anruf sogar die „Melodie” des deutschen Geschäftsführers enthielt. Die Betrüger haben insgesamt dreimal angerufen. Im ersten Anruf forderte der Betrüger den britischen CEO auf, 243.000 US-Dollar auf das Bankkonto eines ungarischen Lieferanten zu überweisen. Der CEO kam der Aufforderung nach. Im zweiten Anruf behaupteten sie, die Überweisung sei erstattet worden. Beim dritten und letzten Anruf bat der Anrufer um eine Folgezahlung. Nachdem der britische CEO festgestellt hatte, dass die Überweisung tatsächlich nicht erstattet worden war, lehnte er es ab, weitere Zahlungen zu tätigen. Der erste Betrag wurde auf das ungarische Bankkonto überwiesen, anschließend nach Mexiko und an andere Orte, was die Zuordnung erschwert.
Dieser frühe Fall von Deepfake-Betrug ist ein Vorbote dafür, wie ambitioniert und ausgeklügelt diese Betrugsmaschen später werden sollten.
Bei einem der jüngsten Angriffe im Juni 2025 nutzte die in Nordkorea ansässige Hackergruppe BlueNoroff Deepfake-Technologie, um Kryptowährungsunternehmen anzugreifen.
Ein Mitarbeiter eines Kryptowährungsunternehmens erhielt einen Calendly-Link für ein Google Meet. Zwei Wochen später nahm der Mitarbeiter an einem Zoom-Anruf teil, der von dem Bedrohungsakteur kontrolliert wurde. Der Anruf war mit Deepfake-Versionen der Führungsspitze gefüllt. Als der Mitarbeiter ein Audio-Problem hatte, schickten die Angreifer eine bösartige Zoom-Erweiterung. Die Zoom-Erweiterung war in Wirklichkeit ein Skript, das Malware bereitstellte, um alle auf dem System gefundenen Krypto-Wallets zu kapern.
Dieser Angriff verdeutlicht, wie Bedrohungsakteur mittlerweile traditionelles Social Engineering mit Echtzeit-Deepfakes kombinieren, was die Überprüfung für Endnutzer erheblich erschwert.
Deepfakes stellen nicht mehr nur eine potenzielle Bedrohung dar. Die Bedrohung und ihre Folgen sind sehr real und gegenwärtig. Deepfakes untergraben derzeit das Vertrauen in den Online-Identitätsprüfungsprozess, auf den sich viele Unternehmen, insbesondere im Finanzsektor, verlassen. Da immer mehr Menschen sich auf allen ihren Geräten mit biometrischen Daten authentifizieren, könnte die Zunahme der böswilligen Verwendung von Deepfakes die Überarbeitung der Authentifizierungssicherheit innerhalb der nächsten fünf Jahre oder sogar noch früher verursachen.
Wie die jüngsten Angriffe gezeigt haben, sind die Hürden für die Erstellung realistischer Deepfakes erheblich gesunken. Von geklonten Stimmen bis hin zu vollständigen Video-Imitationen – Deepfakes bieten Betrügern und Schwindlern neue Möglichkeiten, die schwerer zu erkennen und abzuwehren sind.
Ein weiterer Aspekt, der ernsthaft berücksichtigt werden sollte, ist die Verwendung von Deepfakes durch Mobbing-Täter in Schulen, die ihre Mitschüler verspotten und belästigen, sich gegen Lehrkräfte richten oder versuchen, sich selbst in Situationen darzustellen, die andere bedrohen und einschüchtern sollen. Dieser Trend zum Cybermobbing verschärft sich mit der Zeit und erfordert, dass Eltern ihre Kinder aufklären und sehr wachsam gegenüber potenziellen Gefahren sind.
Das Erkennen der Bedrohung ist der erste Schritt zur Abwehr. Durch verstärkte Sicherheitsschulungen für Endnutzer und den Einsatz neuer Deepfake-Erkennungs-Tools können Unternehmen und Einzelpersonen beginnen, sich gegen diese neue Bedrohung zu wehren.
Sie möchten mehr erfahren? Wenden Sie sich an die Experten von X-Force für eine persönliche Beratung und informieren Sie sich über Deepfakes, Deepfake-Bedrohungen und darüber, wie Ihr Team trainieren kann, diese zu erkennen und Angreifer zu stoppen, bevor Schaden entsteht.
Unser Cyber Range-Team lädt Sie ein, an einem unserer weltweiten Standorte, in Ihren Büros oder virtuell zu trainieren, wie Sie kämpfen würden. Kontaktieren Sie uns noch heute.