Instrumentalisation de la réalité : l’évolution de la technologie deepfake

Un homme sourit pendant un scan biométrique de son visage (scan numérique du visage à droite).

Auteur

Alexis Obeng

Security Consultant Intern, IBM X-Force Cyber Range

Depuis des décennies, les attaques de phishing exploitent les émotions humaines pour les escroquer de leurs identifiants de compte et de leur argent, et le font toujours. Mais comme la technologie a évolué à pas de géant depuis les premiers cas de phishing dans les années 1990, le phishing ne se limite plus à détecter les messages frauduleux les plus évidents à l'aide de fautes de frappe et de grammaire. Maintenant, cela signifie se demander si cet appel de votre ami ou de votre patron est réel, même s'il sonne exactement comme ça. Avec l’essor de l’intelligence artificielle, les acteurs malveillants deviennent de plus en plus furtifs et sophistiqués, et tout le monde doit repenser ce qui est réel, s’habituer à rechercher de faux signaux et apprendre à mieux protéger son identité en ligne et hors ligne.

L’ingénierie sociale est le terme générique qui désigne une pléthore de méthodes par lesquelles les pirates informatiques et les fraudeurs parviennent à inciter les gens à divulguer des informations qui compromettront leur identité et leurs comptes. Cette menace reste également l'un des principaux vecteurs d'attaque à l'origine d'une violation de données. Ce phénomène a été atténué dans une certaine mesure par la formation des employés et les filtres anti-spam avancés, mais il ne semble pas s'appliquer à la menace Deepfake. En 2024, plus de 80 % des entreprises ont déclaré ne disposer d’aucun protocole pour lutter contre les attaques basées sur l’IA, y compris les deepfakes.

En outre, le rapport 2025 de Pindrop sur l'intelligence vocale a révélé une forte augmentation de la fraude par deepfake par rapport aux années précédentes, avec une hausse de 1 300 %. Les attaques Deepfake représentent une nouvelle frontière redoutable, une ère où vous ne pouvez plus vous fier à ce que vous voyez ou entendez.

D’où viennent les deepfakes ?

La technologie qui sous-tend les deepfakes est appelée Generative Adversarial Network (GAN). Il a été développé en 2014 et publié dans un article de recherche par le chercheur Ian Goodfellow et ses collègues. Un GAN est un type de modèle d'apprentissage automatique qui génère de nouvelles données en apprenant des modèles à partir de jeux de données. Mais qu’est-ce que ça signifie réellement ? Un GAN se compose de deux réseaux neuronaux qui rivalisent constamment entre eux pour créer des données réalistes et fictives. L'un des réseaux est le Générateur, l'autre est le Discriminateur.

Le Générateur crée du contenu synthétique, et le Discriminateur détermine si le contenu est réel. Ces allers-retours rendent le faux contenu aussi réel que possible. Pensez-y comme si vous aiguisiez une épée contre un bloc d'acier. Chaque fois que l'épée (le générateur) est confrontée au bloc d'acier (le discriminateur), l'épée devient plus tranchante.

Un organigramme montrant l’origine du contenu deepfake

Quelques années plus tard, en 2017, le terme « deepfake » a été inventé par un utilisateur de Reddit opérant sous le pseudonyme de « deepfakes ». Cette personne a fait un usage malveillant du concept de GAN. Utilisant un compte dédié au contenu pour adultes, il a publié certaines des premières vidéos deepfake diffusées publiquement, utilisant des images de personnes sans lien entre elles pour créer du faux contenu et le diffuser en ligne.

Alors que les premiers deepfakes étaient généralement de mauvaise qualité et faciles à repérer. Aujourd'hui, ce n'est plus le cas. Des internautes publient des deepfakes vocaux et visuels, qui sont très difficiles à identifier comme faux, remettant en question le concept même d'identité et de confiance dans le monde virtuel.

Chronologie des deepfakes – extêmement inquiétante

Les deepfakes sont entrés dans le courant en 2018, avec la sortie d'outils de deepfake open source accessibles, tels que DeepFaceLab. Depuis lors, les obstacles techniques à la création de deepfakes réalistes n'ont cessé de diminuer. En 2023, le marché des outils deepfake a explosé, avec une augmentation de 44 % du développement de ces outils. Malheureusement, la création de contenus explicites non consensuels de femmes a servi de facteur de motivation pour la popularisation d'outils deepfake. Le problème est endémique, Security Hero rapportant qu'en 2023, environ 98 % des vidéos deepfake en ligne sont de nature explicite, et que seulement 1 % des cibles de cette catégorie sont des hommes.

Ces dernières années, les deepfakes ont également été utilisés pour manipuler la politique et frauder les consommateurs. La plupart des cibles des deepfakes sont des personnalités publiques, en grande partie parce qu'elles disposent d'une multitude d'échantillons de médias disponibles sur l'internet.

Au début de l'année 2024, les électeurs du New Hampshire ont reçu un appel téléphonique qui se faisait passer pour le président Biden afin de les dissuader de voter lors des élections primaires démocrates. L'acteur malveillant a même usurpé l'identité de l'appelant pour se faire passer pour le président du parti démocrate. Cet incident est un exemple clair de phishing vocal, aussi appelé « Vishing », utilisant des fichiers audio falsifiés. Depuis, la FCC a interdit l’utilisation de voix générées par IA lors des appels automatisés pour la suppression des électeurs.

Il y a également eu plusieurs vidéos deepfake mettant en scène des personnalités publiques éminentes telles que Elon Musk, le Premier ministre néo-zélandais Christopher Luxon et le Premier ministre canadien Justin Trudeau. Ces vidéos de deepfake faisaient la promotion de divers stratagèmes de cryptomonnaies visant à arnaquer des investisseurs potentiels.

Il existe également des utilisations plus légitimes de la technologie deepfake, avec des chercheurs du Center for Advanced Virtuality du MIT qui ont simulé un discours du président Richard Nixon sur l'échec de l'alunissage. Ce projet a été créé par des étudiants pour mettre en lumière l'importance de l'éducation aux médias à l'ère des deepfakes. Disney et d'autres grands studios hollywoodiens ont également investi dans l'utilisation de cette technologie pour aider les acteurs à vieillir et à intégrer des effets visuels avancés dans les films.

Votre équipe sera-t-elle en mesure de repérer la prochaine attaque de type zero-day à temps ?

Rejoignez les responsables de la sécurité qui font confiance à la Newsletter Think pour obtenir des informations ciblées autour de l’IA, de la cybersécurité, des données et de l’automatisation. Apprenez rapidement grâce à des tutoriels et des fiches explicatives d’experts, envoyés directement dans votre boîte de réception. Consultez la Déclaration de confidentialité d’IBM.

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

https://www.ibm.com/fr-fr/privacy

Incidents notables utilisant des deepfakes

Vous trouverez ci-dessous quatre cas notables où la technologie deepfake a été utilisée à des fins de fraude, de tromperie et d'usurpation d'identité.

Arup

Début 2024, la société d'ingénierie multinationale Arup a confirmé avoir perdu 25 millions de dollars américains à cause d'une escroquerie Deepfake.

Un employé de Hong Kong a reçu un e-mail d'hameçonnage du bureau britannique d'Arup demandant une transaction « secrète ». Naturellement, l'employé a d'abord été méfiant. Ses soupçons se sont dissipés lorsqu'il a participé à un appel vidéo avec le directeur financier et plusieurs autres employés. Il a reconnu ces visages et leurs voix, alors il a envoyé 200 millions de dollars de Hong Kong (25,6 millions de dollars américains). L'argent a été envoyé en 15 virements vers cinq banques différentes avant que la fraude ne soit découverte.

Rob Greig, Chief Digital Information Officer d'Arup, a évoqué l'incident à l'époque avec le Forum économique mondial. Greig a décrit l’incident comme étant davantage une « ingénierie sociale améliorée par la technologie » plutôt qu’une cyberattaque. Il n’y a eu aucune compromission du système ni accès non autorisé aux données. Les gens ont été incités à effectuer ce qu'ils pensaient être de véritables transactions. Greig a même essayé de créer une fausse vidéo de lui, ce qui lui a pris moins d'une heure. Il pense également que cela se produit plus souvent qu’on ne le pense.

Ce cas met en lumière les dommages financiers dévastateurs que peut causer une attaque de phishing par deepfake à une entreprise. Des cas similaires ont également visé des particuliers, des personnes âgées recevant des appels de détresse en se faisant passer pour leurs proches.

Incident principal d’un lycée

Le danger des deepfakes ne concerne pas seulement les personnalités publiques et les dirigeants d'entreprise. En 2024, un directeur d'école de Baltimore a vu sa vie bouleversée par un clip audio généré par l'IA, dans lequel il semble tenir des propos racistes et antisémites.

Un faux clip audio du principal du lycée de Pikesville, Eric Eiswert, est devenu viral en ligne alors qu'il semblait faire des déclarations nuisibles et désobligeantes. Le clip a été vu plus de deux millions de fois. Il y a eu un énorme contre-coup, à la fois en ligne et dans la vie réelle. La communauté locale a été particulièrement indignée car Pikesville compte une importante population noire et juive.

En raison de la réaction négative, Eiswert est parti en congé et la police a été postée pour surveiller son domicile malgré les menaces et le harcèlement dont il faisait l'objet. La sécurité a également été renforcée à l’école.

La défense initiale d'Eiswert, selon laquelle le clip était faux, a été mal accueillie et considérée comme un moyen pour Eiswert d'éviter d'avoir à rendre des comptes. Le clip a été initialement publié en janvier 2024. Il a fallu attendre le mois d'avril pour que la police locale confirme que l'enregistrement était falsifié. La police a arrêté le directeur sportif de l’école, Dazhon Darien, pour des charges liées au faux clip. Eiswert avait enquêté sur Darien pour vol d'argent de l'école et problèmes de performance au travail. En avril 2025, Dazhon Darien a plaidé coupable pour avoir acheté des outils de clonage d'IA.

L'incident a eu des conséquences néfastes sur la réputation d'Eiswert, qui a dû déplacer d'emploi et travailler dans une autre école.

Fraude vocale des PDG britanniques

L'une des premières grandes attaques par deepfake a eu lieu en 2019, lorsque de faux sons ont été utilisés pour dérober 243 000 USD à une entreprise britannique.

Le PDG d'une entreprise énergétique britannique anonyme a reçu un appel du PDG de la société mère allemande. Le PDG britannique a noté que l'appel comportait même la « mélodie » du PDG allemand. Les fraudeurs ont appelé trois fois au total. Lors du premier appel, l'escroc a demandé au PDG britannique de transférer 243 000 USD sur le compte bancaire d'un fournisseur hongrois. Le PDG a obtempéré. Lors du deuxième appel, ils ont affirmé que le virement avait été remboursé. Au troisième et dernier appel, l'appelant demandait un paiement de suivi. Une fois que le PDG du Royaume-Uni a remarqué que le transfert n’était, en fait, pas remboursé, il a refusé d’envoyer des paiements de suivi. Le premier montant a été transféré sur le compte bancaire hongrois, puis au Mexique et ailleurs, ce qui rend l'attribution difficile.

Cette première affaire de fraude par deepfake montre à quel point ces stratagèmes sont devenus ambitieux et sophistiqués par la suite.

Schéma cryptographique BlueNoroff du groupe d'acteurs de la menace

L'une des attaques les plus récentes, survenue en juin 2025, a été menée par un groupe d'acteurs de la menace basé en Corée du Nord, BlueNoroff, qui a utilisé la technologie deepfake pour cibler des sociétés de crypto-monnaies.

Un employé d'une société de crypto-monnaie a reçu un lien Calendly pour une réunion Google. Deux semaines plus tard, l'employé a participé à un appel Zoom contrôlé par l'acteur de la menace. L’appel était rempli de versions deepfake des dirigeants. Lorsque l'employé a rencontré un problème audio, les attaquants ont envoyé une extension Zoom malveillante. L'extension Zoom était en fait un script qui déployait un logiciel malveillant pour détourner tous les portefeuilles de crypto-monnaie trouvés sur le système.

Cette attaque montre comment les acteurs de la menace combinent désormais l'ingénierie sociale traditionnelle avec l'usurpation d'identité en temps réel, rendant ainsi la vérification beaucoup plus difficile pour les utilisateurs finaux.

Une menace avec laquelle il faut compter

Les deepfakes ne constituent plus une menace potentielle ; la menace et ses conséquences sont bien réelles et actuelles. Les deepfakes actuels sont sur le point de saper la confiance dans le processus de vérification d'identité en ligne sur lequel de nombreuses entreprises, en particulier dans le secteur financier, ont fini par s'appuyer. Avec un nombre croissant de personnes s'authentifiant par biométrie sur tous leurs appareils, la prolifération des deepfakes malveillants pourrait engendrer un besoin urgent de repenser la sécurité de l'authentification dans les cinq prochaines années, voire plus tôt.

Comme le montrent les récentes attaques, la barrière à l'entrée pour créer des deepfakes réalistes a considérablement diminué. Des voix clonées aux imitations vidéo complètes, les deepfakes donnent aux escrocs et aux fraudeurs des moyens plus difficiles à détecter et à contrer.

Un autre aspect qui doit être pris au sérieux est l'utilisation de deepfakes par les pirates scolaires qui se heurtent à leurs pairs, ciblent les enseignants ou tentent de se faire passer pour des situations visant à menacer et intimider les autres. Cette tendance à la cyberintimidation ne fait que s'aggraver avec le temps et appelle les parents à éduquer leurs enfants et à être très vigilants face aux menaces potentielles.

Comprendre la menace est la première étape pour se défendre contre elle. En formant davantage les utilisateurs finaux à la sécurité et en exploitant les nouveaux outils de détection des deepfakes, les entreprises et les particuliers peuvent commencer à lutter contre cette nouvelle menace.

Vous souhaitez en savoir plus ? Contactez les experts de X-Force pour un briefing individuel et discutez des deepfakes, des menaces liées aux deepfakes et de la façon dont votre équipe peut s'entraîner à les identifier et à contrecarrer les acteurs de la menace avant qu'ils ne causent des dommages.

Notre équipe Cyber Range vous invite à vous entraîner comme si vous vous battiez sur l'un de nos sites mondiaux, dans vos bureaux ou virtuellement. Contactez-nous dès aujourd’hui.

Solutions connexes
Services de gestion des menaces

Prévoyez, prévenez et répondez aux menaces modernes pour accroître la résilience de l’entreprise.

 

Découvrir les services de gestion des menaces
Solutions de détection et de réponse aux menaces

Utilisez les solutions de détection et de réponse aux menaces d’IBM pour renforcer votre sécurité et accélérer la détection des menaces.

Découvrir les solutions de détection des menaces
Solutions de défense contre les menaces mobiles (MTD)

Protégez votre environnement mobile avec les solutions complètes de défense contre les menaces mobiles d’IBM MaaS360.

Explorer les solutions de défense contre les menaces mobiles
Passez à l’étape suivante

Bénéficiez de solutions complètes de gestion des menaces, afin de protéger votre entreprise avec compétence contre les cyberattaques.

Découvrir les services de gestion des menaces Demander une séance d’information sur les menaces