Per decenni, gli attacchi di phishing hanno fatto leva sulle emozioni umane per sfruttarle e ottenere credenziali di account e denaro, e continuano a farlo. Ma poiché la tecnologia ha fatto passi da gigante dai primi casi di phishing negli anni '90, la protezione dal phishing non consiste più solo nell'individuare l'ovvio messaggio di truffa con errori grammaticali e di battitura. Ora significa chiedersi se quella chiamata del tuo amico o del tuo capo sia davvero reale, anche se sembrerebbe proprio di sì. Con l'ascesa dell'intelligenza artificiale, gli attori malintenzionati stanno diventando sempre più furtivi e sofisticati, e tutti devono ripensare ciò che è reale, abituarsi a cercare i segnali falsi e imparare a proteggere meglio la propria identità sia online che offline.
Ingegneria sociale è il termine usato per una moltitudine di modi in cui i responsabili degli attacchi e i truffatori riescono a ingannare le persone e a far loro rivelare informazioni che comprometteranno la loro identità e i loro account. Questa minaccia rimane anche uno dei principali vettori di attacco che portano a una violazione dei dati. Questo problema è stato in una certa misura mitigato dalla formazione dei dipendenti e dai filtri antispam avanzati, ma non sembra applicarsi alla minaccia Deepfake, ormai di tendenza. Nel 2024, oltre l'80% delle aziende ha dichiarato di non disporre di protocolli per contrastare gli attacchi basati su AI, compresi i deepfake.
Inoltre, il Voice Intelligence Report 2025 di Pindrop ha rilevato un netto aumento delle frodi deepfake rispetto agli anni precedenti, registrando un incremento del 1300%. Gli attacchi deepfake rappresentano una nuova, ardua frontiera, in cui non ci si può più fidare di ciò che si vede o si sente.
La tecnologia alla base dei deepfake si chiama rete generativa avversaria (GAN). È stata sviluppata nel 2014 e pubblicata in un articolo di ricerca del ricercatore Ian Goodfellow e dei suoi colleghi. Una GAN è un tipo di modello di machine learning che genera nuovi dati apprendendo modelli dai set di dati di addestramento. Ma cosa significa esattamente? Una GAN è composta da due reti neurali che competono costantemente tra loro per creare dati realistici e falsi. Una rete è il Generatore, l'altra è il Discriminatore.
Il Generatore crea contenuti sintetici, mentre il Discriminatore determina se i contenuti sono reali. Alla fine, questo avanti e indietro fa sembrare i contenuti falsi il più reali possibile. Pensalo come l'atto di affilare una spada contro un blocco d'acciaio. Ogni volta che la spada (il Generatore) viene pressata contro il blocco d'acciaio (il Discriminatore), la spada diventa più affilata.
Qualche anno dopo, nel 2017, il termine "deepfake" è stato coniato da un utente di Reddit operante con il nome "deepfakes". Questa persona ha abusato maliziosamente del concetto di GAN. Utilizzando un account dedicato ai contenuti per adulti, ha pubblicato alcuni dei primi video deepfake distribuiti pubblicamente, utilizzando immagini di persone non correlate per creare contenuti falsi e distribuirli online.
Mentre i primi deepfake erano solitamente di bassa qualità e più facili da individuare, oggi non è più così. Le persone pubblicano deepfake vocali e visivi, che sono molto difficili da identificare come falsi, mettendo in discussione il concetto stesso di identità e fiducia nel mondo virtuale.
I deepfake sono diventati popolari nel 2018, con il rilascio di strumenti di deepfake open source accessibili come DeepFaceLab. Da allora, gli ostacoli tecnici alla creazione di deepfake realistici sono diminuiti costantemente. Nel 2023, il mercato degli strumenti deepfake è schizzato alle stelle, con un aumento del 44% nello sviluppo di questi strumenti. Purtroppo, la creazione di contenuti espliciti non consensuali di donne ha rappresentato un fattore motivante per la diffusione degli strumenti deepfake. Il problema è dilagante, con Security Hero che ha riportato che nel 2023 circa il 98% dei video deepfake online è di natura esplicita, e solo l'1% dei bersagli in quella categoria è di sesso maschile.
Negli ultimi anni, i deepfake sono stati utilizzati anche per manipolare la politica e truffare i consumatori. Per la maggior parte, i bersagli dei deepfake sono personaggi pubblici, soprattutto perché c'è una grande quantità di campioni multimediali disponibile su Internet.
All'inizio del 2024, gli elettori del New Hampshire hanno ricevuto una chiamata automatica in cui ci si spacciava per il Presidente Biden con il fine di scoraggiarli dal votare alle primarie democratiche. L'attore malintenzionato ha persino falsificato l'ID del chiamante perché fosse visualizzato come il presidente del Partito Democratico. Questo incidente è un chiaro esempio di phishing vocale, ovvero "vishing", con l'utilizzo di audio deepfake. Da allora, la FCC ha vietato l'uso di voci generate dall'AI nelle chiamate automatiche per la soppressione del voto.
Ci sono stati anche diversi video deepfake con figure pubbliche di spicco come Elon Musk, il Primo Ministro neozelandese, Christopher Luxon e il Primo Ministro canadese Justin Trudeau. Questi video deepfake promuovevano vari schemi di criptovaluta per truffare i potenziali investitori.
Ci sono anche usi più legittimi della tecnologia deepfake, con i ricercatori del Center for Advanced Virtuality del MIT che hanno simulato il discorso del Presidente Richard Nixon su un allunaggio fallito. Questo progetto è stato creato dagli studenti per mettere in guardia sull'importanza dell'alfabetizzazione mediatica nell'era dei deepfake. Disney e altri grandi studi di Hollywood hanno inoltre investito nell'uso della tecnologia per ringiovanire gli attori e includere effetti visivi avanzati nei film.
Newsletter Think
Unisciti ai leader della sicurezza che si affidano alla newsletter Think per ricevere notizie selezionate su AI, cybersecurity, dati e automazione. Impara velocemente da tutorial e articoli informativi consegnati direttamente nella tua casella di posta. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'informativa sulla privacy IBM.
Di seguito sono riportati quattro casi degni di nota in cui la tecnologia deepfake è stata utilizzata a fini di frode, inganno e impersonificazione.
All'inizio del 2024, la multinazionale di ingegneria Arup ha confermato di aver perso 25 milioni di dollari a causa di una truffa deepfake.
Un dipendente di Hong Kong ha ricevuto un'e-mail di phishing dalla sede britannica di Arup in cui gli veniva richiesta una transazione "segreta". Naturalmente, all'inizio il dipendente era sospettoso. Il suo sospetto è stato dissipato quando ha partecipato a una videochiamata con il Chief Financial Officer e diversi altri dipendenti. Avendo riconosciuto quei volti e quelle voci, ha inviato 200 milioni di dollari di Hong Kong (equivalenti a 25,6 milioni di dollari). Il denaro è stato inviato in 15 bonifici a cinque banche diverse prima che la frode venisse scoperta.
All'epoca, il Chief Digital Information Officer di Arup, Rob Greig, ha discusso l'incidente con il World Economic Forum. Greig ha descritto l'incidente più come "ingegneria sociale potenziata dalla tecnologia" piuttosto che come un attacco informatico. Non c'è stato alcun compromesso del sistema o accesso non autorizzato ai dati. Le persone sono state ingannate e hanno effettuato quelle che credevano essere transazioni autentiche. Greig ha persino provato a creare un video deepfake di sé, e ci ha messo meno di un'ora. Ritiene inoltre che ciò accada più spesso di quanto si possa pensare.
Questo caso evidenzia il devastante danno finanziario che il phishing deepfake può causare a un'azienda. Casi simili hanno preso di mira anche individui singoli: anziani che hanno ricevuto chiamate di emergenza in cui ci si spacciava per i loro cari.
Il pericolo dei deepfake non si estende solo a figure pubbliche e dirigenti aziendali. Nel 2024, è emerso il caso di un preside di Baltimora che ha visto la sua vita stravolta a causa di una clip audio generata dall'AI che sembrava fare dichiarazioni razziste e antisemite.
Una clip audio inventata del preside della Pikesville High School, Eric Eiswert, è diventata virale online perché sembrava rilasciare dichiarazioni offensive e denigratorie. Il video ha ricevuto ben oltre due milioni di visualizzazioni. C'è stata una reazione enorme sia online che nella vita reale. La comunità locale era particolarmente indignata, perché Pikesville ha una numerosa popolazione nera ed ebraica.
A causa delle reazioni negative, Eiswert si è preso un congedo; inoltre, la polizia è stata messa a guardia della sua casa, in seguito alle minacce e alle molestie che riceveva. Anche la sicurezza nella scuola è stata rafforzata.
La difesa iniziale di Eiswert, secondo cui la clip era falsa, è stata accolta male e liquidata come un modo per evitare la responsabilità. Il video è stato inizialmente pubblicato a gennaio 2024. C'è voluto fino ad aprile perché la polizia locale confermasse che la registrazione era falsificata. La polizia ha arrestato il direttore atletico della scuola, Dazhon Darien, con accuse legate alla falsa clip. Eiswert stava indagando su Darien per furto di denaro scolastico e questioni di rendimento lavorativo. Nell'aprile 2025, Dazhon Darien si è dichiarato colpevole, ammettendo di aver acquistato strumenti di clonazione AI.
L'incidente ha avuto effetti dannosi sulla reputazione di Eiswert, che ha dovuto iniziare a lavorare in un'altra scuola.
Uno dei primi grandi attacchi deepfake è avvenuto nel 2019, quando un audio deepfake è stato utilizzato per rubare 243.000 USD a un'azienda britannica.
Il CEO di una compagnia energetica britannica anonima ha ricevuto una chiamata dal CEO della società madre tedesca. Il CEO del Regno Unito ha osservato che la chiamata riportava addirittura la "melodia" del CEO tedesco. I truffatori hanno chiamato un totale di tre volte. Nella prima chiamata, il truffatore ha chiesto al CEO del Regno Unito di trasferire 243.000 dollari sul conto bancario di un fornitore ungherese. Il CEO ha obbedito. Nella seconda chiamata, è stato dichiarato che il trasferimento era stato rimborsato. Nella terza e ultima chiamata, il chiamante ha chiesto un nuovo pagamento. Dopo che il CEO del Regno Unito si è accorto che il bonifico non era stato rimborsato, si è rifiutato di inviare i nuovi pagamenti. Il primo importo è stato trasferito sul conto bancario ungherese, poi in Messico e altrove, rendendo difficile l'attribuzione.
Questo primo caso di frode deepfake è un segno di preavviso di quanto in seguito sarebbero diventati ambiziosi e sofisticati questi schemi.
Uno degli attacchi più recenti, avvenuto nel giugno 2025, è stato quello del gruppo di attori delle minacce basato in Corea del Nord, BlueNoroff, che ha utilizzato la tecnologia deepfake per prendere di mira le società di criptovalute.
Un dipendente di un'azienda di criptovalute ha ricevuto un link Calendly per un Google Meet. Due settimane dopo, il dipendente ha partecipato a una chiamata Zoom controllata dall'attore della minaccia. La chiamata era piena di versioni deepfake dei dirigenti senior. Quando il dipendente ha riscontrato un problema audio, gli autori della minaccia hanno inviato un'estensione Zoom malevola. L'estensione Zoom era in realtà uno script che distribuiva malware per dirottare qualsiasi portafoglio di criptovalute trovato nel sistema.
Questo attacco evidenzia come gli attori delle minacce stiano ora combinando l'ingegneria sociale tradizionale con l'impersonificazione deepfake in tempo reale, rendendo la verifica significativamente più difficile per gli utenti finali.
I deepfake non rappresentano più una potenziale minaccia; la minaccia e le sue conseguenze sono molto reali e presenti. Oggi i deepfake sono al punto di minare la fiducia nel processo di verifica delle identità online su cui molte organizzazioni, soprattutto nel settore finanziario, hanno iniziato a fare affidamento. Con più persone che mai che si autenticano utilizzando il riconoscimento biometrico su tutti i loro dispositivi, la crescita dell'uso dannoso dei deepfake può portare a una disperata necessità di ripensare alla sicurezza dell'autenticazione entro i prossimi cinque anni, o prima.
Come dimostrato negli attacchi recenti, la barriera per creare deepfake realistici è drasticamente diminuita. Dalle voci clonate alle imitazioni video complete, i deepfake potenziano i truffatori e gli scammer in modi più difficili da individuare e da cui è più difficile difendersi.
Un altro aspetto che dovrebbe essere preso sul serio è l'uso dei deepfakes da parte dei bulli a scuola che deridono e molestano i loro compagni, prendono di mira i docenti o cercano di raffigurarsi in situazioni che hanno lo scopo di minacciare e intimidire gli altri. Questa tendenza al cyberbullismo sta solo peggiorando nel tempo e richiede che i genitori a educhino i loro figli e siano molto vigili riguardo alle potenziali minacce.
Capire la minaccia è il primo passo per difendersi da essa. Con una maggiore formazione sulla sicurezza per gli utenti finali e l'utilizzo di nuovi strumenti di rilevamento dei deepfake, organizzazioni e individui possono iniziare a reagire contro questa nuova minaccia.
Vuoi maggiori informazioni? Contatta gli esperti X-Force per un briefing individuale e parla di deepfake, minacce deepfake e di come il tuo team può formarsi per identificarli e contrastare gli attori delle minacce prima che il danno sia fatto.
Il nostro team Cyber Range ti invita a completare una formazione efficace in una delle nostre sedi globali, nei tuoi uffici o virtualmente. Contattaci oggi stesso.