"Se c'è un lavoro che l'AI generativa non può rubare, è quello del truffatore".
È così che Stephanie Carruthers, Global Lead of Cyber Range and Chief People Hacker di IBM, ricorda di essersi sentita nel 2022. ChatGPT aveva da poco portato l'intelligenza artificiale generativa nella coscienza pubblica. La sua combinazione di competenze linguistiche stranamente umane e una profonda base di conoscenze faceva chiedere a molti come avrebbe potuto cambiare il mondo.
E come avrebbe potuto cambiare il loro lavoro.
"Quando è stato introdotta per la prima volta, la gente continuava a chiedermi se avessi paura che l'AI potesse rubarmi il lavoro,'" afferma Carruthers. "Pensavo di no. Saremmo dovuti arrivare al punto in cui l'AI potesse davvero capire una persona e creare una campagna personalizzata contro di lei prima che ciò potesse accadere".
Nell'ambito di IBM® X-Force, Carruthers esegue simulazioni di schemi di ingegneria sociale e attacchi informatici per aiutare le aziende a rafforzare le proprie difese contro il mondo reale. I primi modelli di AI generativa potevano inventare alcune truffe di phishing abbastanza generiche, ma non potevano lanciare attacchi sofisticati in grado di causare gravi danni. Questi schemi richiedono una ricerca approfondita, un'attenta pianificazione e pretesti altamente mirati.
Ma in due anni e mezzo possono accadere molte cose. Attualmente, molti modelli linguistici di grandi dimensioni (LLM) possono effettuare ricerche sul web in tempo reale. Gli agenti AI, in grado di progettare autonomamente workflow ed eseguire attività, possono fare un ulteriore passo avanti, utilizzando le informazioni che scoprono per informare le proprie azioni.
Non sembra più un'iperbole immaginare un bot basato sull'AI in grado di adattare perfettamente gli attacchi di ingegneria sociale a individui specifici. Tutto ciò di cui necessita è un criminale informatico per avviarlo.
"Siamo arrivati al punto in cui sono preoccupata", afferma Carruthers. "Con pochi prompt, un modello AI può scrivere un messaggio di phishing pensato solo per me. È terrificante".
Secondo l'2025 IBM X-Force Threat Intelligence Index, i criminali informatici oggi stanno in media perseguendo campagne più grandi e più ampie rispetto al passato. Questo sviluppo è in parte una questione di cambiamento delle tattiche, poiché molti aggressori hanno spostato la propria attenzione sugli attacchi alla supply chain che colpiscono molte vittime contemporaneamente.
Si tratta anche di cambiare gli strumenti. Molti aggressori hanno adottato l'AI generativa come uno stagista o un assistente, utilizzandola per costruire siti web, generare codice maligno e persino scrivere e-mail di phishing. In questo modo, l'AI aiuta i criminali informatici a compiere più attacchi in meno tempo.
"I modelli AI stanno davvero aiutando gli aggressori a ripulire i loro messaggi", afferma Carruthers. "Rendendoli più concisi, rendendoli più urgenti, trasformandoli in qualcosa in cui più persone possono cascarci".
Carruthers sottolinea che la cattiva grammatica e i giri di parole strani sono stati a lungo tra i campanelli d'allarme più comuni nei tentativi di phishing. I criminali informatici tendono a non prestare sempre attenzione al controllo ortografico e spesso scrivono in una seconda e terza lingua, il che comporta un volume complessivo più elevato di errori.
Tuttavia, gli strumenti di AI generativa possono generare una prosa tecnicamente perfetta praticamente in tutte le principali lingue del mondo, nascondendo alcuni dei segnali più evidenti dell'ingegneria sociale e ingannando altre vittime.
L'AI può anche scrivere quei messaggi molto più velocemente di una persona. Carruthers e il team di X-Force hanno condotto alcuni esperimenti e hanno scoperto che l'AI generativa può scrivere un e-mail di phishing efficace in cinque minuti. Perché un team di umani scriva un messaggio comparabile, ci vogliono circa 16 ore, e una ricerca approfondita sulle potenziali vittime occupa gran parte di quel tempo.
Inoltre, la tecnologia deepfake consente ai modelli AI di creare immagini, audio e persino videochiamate falsi, conferendo ulteriore credibilità ai loro schemi.
Solo nel 2024, gli americani hanno perso 12,5 miliardi di dollari a causa di attacchi di phishing e altre frodi. Quella cifra potrebbe aumentare, via via che sempre più truffatori utilizzano l'AI generativa per creare messaggi di phishing più convincenti, in più lingue e in meno tempo.
Con l'arrivo degli agenti AI, i truffatori possono espandere ulteriormente le proprie operazioni.
La ricerca spesso fa la differenza tra un attacco informatico fallito e uno riuscito. Ricercando i propri obiettivi, siano essi organizzazioni o persone, i criminali informatici possono creare piani perfettamente su misura, redigere storie che toccano le corde giuste e sviluppare malware che individua vulnerabilità specifiche.
Inoltre, gli aggressori possono trovare molte delle informazioni di cui necessitano online.
"Puoi davvero imparare così tanto su un individuo semplicemente guardando i suoi social media, il sito web dell'azienda, ovunque sull'open web", dice Carruthers. "Ci sono così tante informazioni che le persone inseriscono nei post sul blog, nei comunicati stampa, nei media e persino negli annunci di lavoro".
Gli annunci di lavoro sono un buon esempio di come gli aggressori possano utilizzare informazioni apparentemente innocue contro le proprie vittime.
"Leggendo il tuo annuncio di lavoro, potrei scoprire com'è il tuo stack tecnologico e chi sono i tuoi fornitori", spiega Carruthers. "Ora posso personalizzare il mio malware in base al tuo ambiente. So quali fornitori posso fingere di essere".
Esperti come Carruthers temono che con gli agenti AI, che possono progettare workflow e utilizzare strumenti per raggiungere obiettivi complessi, gli aggressori possano automatizzare una quantità maggiore di e-mail di phishing e siti web falsi.
Gli aggressori possono teoricamente utilizzare gli agenti AI per raccogliere informazioni, analizzarle, formulare un piano di attacco e generare messaggi fraudolenti e deepfake da utilizzare nell'attacco.
Questo processo è molto più ampio rispetto alla generazione di varianti dello stesso messaggio di phishing con stili di scrittura diversi per obiettivi diversi. È una forma più avanzata di spear phishing mirato, ampiamente considerato la forma più efficace di ingegneria sociale.
Gli esperti di cybersecurity non hanno ancora rilevato una quantità significativa di agenti AI pericolosi, ma potrebbe essere solo una questione di tempo. Un recente articolo di MIT Technology Review cita Mark Stockley di Malwarebytes: "Credo che alla fine vivremo in un mondo in cui la maggior parte degli attacchi informatici sarà condotta da agenti. Si tratta solo di capire quanto velocemente ci arriveremo".
Nell'era dell'AI generativa, molte difese tradizionalmente affidabili contro gli attacchi di ingegneria sociale non funzionano più.
"La prima cosa che insegniamo ai nostri dipendenti è di fare attenzione alla cattiva grammatica, agli errori di battitura, a questo genere di cose", afferma Carruthers. "Tuttavia, questo non è più un problema per gli aggressori più sofisticati che utilizzano l'AI".
Se queste bandiere rosse stilistiche non funzionano più, un'opzione è quella di spostare l'attenzione della formazione sulla sicurezza verso discussioni più approfondite sulle tattiche di ingegneria sociale.
I social engineer fanno molto affidamento sull'imitazione, sulla misinformazione e sulla manipolazione emotiva, come Carruthers ha detto in precedenza. Le truffe basate su AI potrebbero commettere meno errori di ortografia, ma si basano comunque sugli stessi cliché e schemi dei classici attacchi di ingegneria sociale. Se i dipendenti imparano a individuare questi segnali rivelatori, possono contrastare una maggiore quantità di crimini informatici.
I social engineer fanno leva sulla psicologia umana, come la curiosità, la paura, il desiderio di aiutare e la voglia di integrarsi. I truffatori calibrano i loro messaggi puntando su queste emozioni: "Ho bisogno che tu invii questi soldi adesso, altrimenti accadrà qualcosa di molto brutto".
Le interazioni legittime sul posto di lavoro hanno solitamente una carica emotiva molto inferiore. I lavori possono essere stressanti, i colleghi possono essere passivo-aggressivi e i capi possono essere esigenti, tuttavia la maggior parte delle persone cerca di mantenere almeno un minimo di cortesia.
Le richieste, anche quelle urgenti, tendono ad assumere un tono più equilibrato: "Ehi, puoi assicurarti che questa fattura venga pagata oggi? Siamo in ritardo a causa di un errore amministrativo e non voglio irritare il fornitore".
Una richiesta importante, scritta con intensa emozione, dovrebbe essere un segno per fermarsi e pensare.
I social engineer sono dei narratori e tendono a limitarsi a pochi ganci di trama collaudati. Tra i più comuni:
Sono il tuo capo e ho bisogno del tuo aiuto. Non farmi domande.
Lavoro per IT/Cybersecurity/un fornitore di tecnologia e il tuo sistema è compromesso. Dobbiamo agire ora.
Sono un fornitore e interrompo immediatamente il servizio se non farai qualcosa per me.
Sono un agente delle forze dell'ordine o un funzionario di governo e oggi andrai in prigione se non paghi questa multa.
Sono un perfetto sconosciuto, ma ho un'incredibile opportunità di investimento per te.
Sono del servizio postale e si è verificato un problema con la consegna del tuo pacco. Fai clic su questo collegamento per risolvere il problema.
Utilizzo un servizio o un brand di cui ti fidi e il tuo account è stato hackerato. Agisci subito per risolvere il problema.
Lavoro per un servizio o un marchio di cui ti fidi e abbiamo un'offerta straordinaria per te. Agisci subito per usufruirne.
Detto questo, gli aggressori più abili personalizzano il più possibile le loro storie. Invece di fermarsi a una panoramica di alto livello, Carruthers consiglia alle organizzazioni di allineare la propria formazione sulla sicurezza per affrontare specificamente i tipi di minacce informatiche che i loro dipendenti hanno maggiori probabilità di affrontare.
"Rivalutate cosa significa la formazione sulla sicurezza nel contesto degli attacchi che si verificano oggi nella vostra organizzazione", dice Carruthers. "Ricevete specifici tipi di chiamate telefoniche fraudolente? Incorporate queste chiamate nel vostro addestramento".
Oltre a rielaborare i contenuti della formazione, Carruthers consiglia di tenere corsi di formazione più spesso. In questo modo le lezioni e i preziosi suggerimenti possono rimanere più impressi nella mente delle persone, rendendo più probabile che utilizzino effettivamente le misure di sicurezza apprese.
"In genere, i dipendenti vengono attaccati per primi per compromettere un'intera organizzazione", afferma Carruthers. "Se diamo loro un'ora di formazione una volta all'anno, è davvero sufficiente?"
Le persone possono rilevare altri attacchi in corso prestando attenzione alle bandiere rosse, tuttavia possono impedire del tutto che alcuni attacchi si verifichino limitando ciò che pubblicano.
"È davvero importante che sia i singoli individui sia le organizzazioni siano consapevoli di ciò che pubblicano online", afferma Carruthers.
In termini di ingegneria sociale, il potere della tecnologia AI e degli LLM deriva dalla loro capacità di raccogliere e analizzare grandi quantità di informazioni sulle vittime. Se non si trovano tali informazioni, gli strumenti di AI non possono creare attacchi su misura, rendendo più difficile ingannare le vittime, a prescindere dalla correttezza della loro prosa.
Carruthers sottolinea che "evitare di condividere troppo" è un consiglio comune, ma questo suggerimento viene spesso interpretato come "Non pubblicare informazioni riservate online". Eppure i truffatori possono persino utilizzare alcune informazioni non sensibili per rendere i propri attacchi più convincenti.
"Molti annunci di lavoro delineano una sorta di organigramma, per cui questo ruolo fa capo a questo ruolo e questi ruoli fanno capo a questo ruolo", spiega Carruthers. "Si tratta di informazioni preziose. Ho un'idea di come appare la tua organizzazione. So quali titoli usare e quale ruolo dovrei fingere di avere".
Sebbene le persone possano mantenere rigide impostazioni sulla privacy sui propri account di social media, questo approccio non è molto pratico per le organizzazioni. Le aziende possono tuttavia essere più caute su ciò che pubblicano, ad esempio rendendo sfocati i badge dei dipendenti nelle immagini.
"La maggior parte delle persone non pensa che sia un grosso problema vedere la foto del badge di un dipendente", afferma Carruthers. "Dal punto di vista dell'ingegneria sociale, potrei replicare l'aspetto di quel badge, il che mi rende molto più facile entrare in un edificio a cui non appartengo".