Metti da parte ogni paura. Per combattere il malware generato dall'AI, concentrati sui fondamenti della cybersecurity.

Persona che legge un codice davanti a un computer

Autore

Matthew Kosinski

Staff Editor

IBM Think

L'estate scorsa, i ricercatori sulla cybersecurity cybersecurity dell'HYAS hanno rilasciato la prova di concetto per EyeSpy, un ceppo di malware completamente autonomo e basato su AI che, a loro dire, può ragionare, elaborare strategie ed eseguire attacchi informatici da solo.1 Questo esperimento, hanno avvertito, era un assaggio della nuova era di minacce informatiche devastanti e non rilevabili che l'AI avrebbe presto scatenato.

O forse no.

"C'è molto clamore intorno all'AI, nella cybersecurity e non solo", afferma Ruben Boonen, CNE Capability Development Lead di IBM X-Force Adversary Services. "Ma la mia opinione è che, al momento, non dovremmo preoccuparci troppo dei malware basati su AI. Non ho visto casi concreti in cui l'uso dell'AI possa consentire qualcosa che senza di essa non sarebbe possibile".

Il panorama delle minacce è in costante evoluzione e potrebbe arrivare un momento in cui il malware basato sull'AI rappresenta un grave pericolo. Ma, almeno per ora, molti degli esperti in materia di sicurezza ritengono che le discussioni sul malware AI siano un mix di pura speculazione e più di un po' di marketing.

Gli attori delle minacce che utilizzano l'AI oggi la utilizzano in gran parte per perfezionare gli stessi script di base e gli stessi attacchi di ingegneria sociale che i team di cybersecurity già conoscono. Questo significa che le organizzazioni possono proteggersi continuando a concentrarsi sugli aspetti fondamentali, come applicare patch agli asset, addestrare i dipendenti e investire nelle giuste soluzioni di rilevamento delle minacce.

Il malware generato dall'AI ha messo in difficoltà alcuni, ma numerosi esperti in materia di sicurezza sono rimasti impassibili

Sia i modelli linguistici di grandi dimensioni (LLM) generici come Llama di Meta sia le applicazioni mirate come watsonx Code Assistant di IBM possono aiutare i programmatori ad accelerare lo sviluppo scrivendo, eseguendo il debug e traducendo codici.

La preoccupazione è che questi benefici non siano limitati ai programmatori benevoli. Effettuando il jailbreak di sistemi di AI legittimi o creandone di propri, gli autori delle minacce possono ipoteticamente utilizzare questi strumenti di AI per semplificare i processi di sviluppo del malware.

Alcuni temono che l'AI possa abbassare la barriera all'ingresso nel mercato dei malware, consentendo a più criminali informatici di scrivere programmi dannosi indipendentemente dal loro livello di abilità. O, peggio ancora, le tecnologie di AI potrebbero aiutare gli autori delle minacce a sviluppare malware nuovi di zecca in grado di aggirare le difese comuni e provocare un caos indicibile.

Alcuni ricercatori hanno tentato di illustrare i pericoli che le minacce informatiche generate dall'AI potrebbero rappresentare sperimentando diversi modi per incorporare l'AI nel malware:

  • BlackMamba, sviluppato dalla società di sicurezza HYAS, è un keylogger polimorfico che utilizza ChatGPT per sintetizzare codici dannosi al momento dell'esecuzione.2

  • EyeSpy, anch'esso di HYAS, utilizza l'AI per valutare il suo sistema di destinazione, individuare le app che hanno maggiori probabilità di contenere dati sensibili e selezionare un metodo di attacco.1

  • Morris II è un worm che utilizza prompt dannosi per indurre le app di AI a divulgare informazioni sensibili e a diffondere il worm ad altre persone.

Questi esperimenti sembrano allarmanti a prima vista, ma numerosi esperti in materia di sicurezza li vedono come poco più che motivo di curiosità.

"Cose come [BlackMamba e EyeSpy] non mi spaventano affatto", afferma Boonen, che conduce esercizi di red teaming per aiutare le organizzazioni a rafforzare le proprie difese contro i veri attacchi informatici.

"Se esamino i dettagli tecnici su come vengono implementati questi programmi, non credo che avrebbero alcun successo se li utilizzassimo nei rapporti con i nostri clienti", spiega.

Il motivo per cui Boonen e altri oggi sono scettici nei confronti del malware generato dall'AI è comunque fondato.

Innanzitutto, queste "nuove minacce" non stanno realmente facendo nulla che i team di sicurezza non abbiano visto prima, il che significa che le strategie di difesa esistenti sono ancora efficaci contro di esse.

"I concetti presentati con BlackMamba ed EyeSpy non sono nuovi", afferma Kevin Henson, Lead Malware Reverse Engineer presso IBM X-Force Threat Intelligence. "I difensori hanno già incontrato malware con queste funzionalità, ovvero nascosti nella memoria e con codice polimorfico".

Henson fa riferimento agli autori di malware che utilizzano tecniche come la metaprogrammazione per offuscare dati importanti e generare in modo univoco determinati elementi, come modelli di codice, a ogni compilazione.

In secondo luogo, anche se i modelli linguistici di grandi dimensioni possiedono notevoli capacità di codifica, è improbabile che siano in grado di generare varianti di malware senza precedenti in tempi brevi.

"Penso che l'utilizzo di ChatGPT [e altri strumenti di AI] per generare malware abbia dei limiti perché il codice viene generato da modelli che sono stati addestrati su una serie di dati", afferma Henson. "Di conseguenza, il codice generato non sarà complesso come il codice sviluppato da un essere umano."

Sebbene si sia detto molto su come gli algoritmi di AI e di apprendimento automatico potrebbero inaugurare una rinascita del crimine informatico riducendo la produzione di malware, i modelli attuali non sono ancora presenti. Gli utenti devono ancora sapere un paio di cose sul codice per assicurarsi che tutto quello che viene generato da un modello LLM faccia esattamente quello che vogliono.

"L'AI è un fattore abilitante per la produttività e, in una certa misura, si riduce il livello di conoscenza richiesto per scrivere codice quando la si utilizza", afferma Boonen. "Ma non si tratta di una riduzione massiccia".

In effetti, se gli autori delle minacce iniziassero oggi stesso a implementare in modo diffuso i malware basati sull'AI, è probabile che produrrebbe un eccesso di codici di bassa qualità che i difensori potrebbero rilevare facilmente e, quindi, disinnescare.

"Non sto dicendo che non vi sia la possibilità tecnica in futuro che venga creato un malware davvero valido che utilizza l'AI", afferma Boonen. "Se i modelli continuano a migliorare al ritmo attuale, penso che si arriverà un punto in cui saranno in grado di fare cose importanti. Allora dovremo prendere la cosa più seriamente. Ma non credo che siamo ancora arrivati a questo punto".

"Questo problema rispecchia da vicino quello che accade nello sviluppo del software perché il malware è solo software dannoso", afferma Golo Mühr, Malware Reverse Engineer di IBM X-Force Threat Intelligence.

"Al momento non vediamo molte app in cui l'AI è integrata senza soluzione di continuità nel loro codice", spiega Mühr. "Quando vediamo che l'AI sta diventando predominante nel software in generale, possiamo aspettarci che diventi comune anche nel malware".

Questo schema si è verificato in passato, come riporta l'X-Force Threat Intelligence Index . Il ransomware e il cryptojacking non sono diventati minacce pervasive fino a quando anche le tecnologie legittime che hanno consentito questi attacchi, Microsoft Active Directory per il ransomware, criptovalute e Infrastructure as a service per il cryptojacking, non sono state pienamente adottate.

Mühr osserva che qualsiasi nuova tecnologia deve fornire un discreto ritorno sull'investimento prima che gli sviluppatori la adottino, e lo stesso vale per gli sviluppatori di malware.

Come si presentano oggi gli attacchi informatici basati sull'AI

I ricercatori sulla cybersecurity, incluso X-Force di IBM, devono ancora trovare prove che gli attori delle minacce utilizzino l'AI per generare nuovi malware in circolazione. Ma i criminali informatici utilizzano strumenti di AI per attività dannose più banali, come scrivere semplici script ed e-mail di phishing.

"Nello sviluppo legittimo di software, vediamo l'AI generativa utilizzata per integrare il processo di sviluppo, fornire indicazioni e creare frammenti di codice di base", afferma Mühr. "Questo tipo di tecnologia AI è già utilizzata dai criminali informatici per scopi dannosi oggi, ma non è un qualcosa che definiremmo come una minaccia estremamente sofisticata".

Ad esempio, Microsoft e OpenAI hanno catturato e fermato diversi attori degli Stati nazionali che tentavano di utilizzare i loro modelli LLM come assistenti di codifica. Il gruppo "Forest Blizzard", collegato alla Russia, ha utilizzato i modelli LLM per ricercare le vulnerabilità nei sistemi target, mentre il gruppo iraniano "Crimson Sandstorm" li ha utilizzati per scrivere script di web scraping.3

Tuttavia, gli attacchi di phishing assistiti da modelli LLM sono l'uso malevolo dell'AI più preoccupante per numerosi esperti in materia di sicurezza.

"A questo punto credo che la minaccia più grande sia l'uso dell'AI generativa per l'impersonificazione e il phishing", afferma Mühr. "Questo è un caso d'uso in cui l'AI può già avere un impatto enorme creando testo, video e audio simili a quelli umani. E abbiamo già visto segnali che indicano che questa strategia è stata sfruttata per il phishing".

Ad esempio, gli hacker possono utilizzare i modelli LLM per scrivere e-mail di phishing che imitano fedelmente le voci di brand affidabili. Queste e-mail generate da modelli LLM sono inoltre prive dei comuni segnali di allarme, come errori grammaticali e frasi difficili che le potenziali vittime usano spesso per identificare le truffe.

Gli attori malintenzionati possono anche utilizzare l'AI per generare deepfake che rendono le loro truffe ancora più convincenti. Ad esempio, i truffatori della S.A.R. di Hong Kong in Cina hanno utilizzato una videoconferenza generata dall'AI per indurre una vittima a trasferire 25 milioni di dollari su conti bancari fraudolenti.4

Queste truffe basate su AI possono ingannare sia gli obiettivi umani, sia i sistemi di sicurezza aziendali progettati per fermarli. Ad esempio, il gruppo di criminali informatici che X-Force chiama "Hive0137" probabilmente utilizza l'AI per generare variazioni sulle e-mail di phishing in modo da poter sfuggire ai filtri che cercano messaggi dannosi noti.

Rilevamento e prevenzione degli attacchi basati su AI

L'AI non ha modificato radicalmente il campo di battaglia della cybersecurity. Ha invece aiutato gli aggressori a semplificare le cose che già facevano. Questo significa che la migliore linea di difesa contro gli attacchi basati su AI è che le organizzazioni si attengano ai fondamenti.

"Se parliamo dell'AI utilizzata per condurre attacchi, il rischio e la risposta non cambiano per i difensori", afferma Ben Shipley, Strategic Threat Analyst di IBM X-Force Threat Intelligence. "Il malware creato dall'AI o da un essere umano continuerà comunque a comportarsi come malware. Il ransomware scritto dall'AI non ha un impatto più significativo su una vittima rispetto al ransomware scritto da un essere umano".

Le misure di sicurezza standard possono aiutare a chiudere le vulnerabilità che il malware—assistito dall'AI o altro—deve utilizzare per entrare in un sistema. Ad esempio, i programmi formali di gestione delle patch possono correggere i bug dei software prima che i malintenzionati li trovino. Controlli efficaci di identità e accesso come l'autenticazione a più fattori possono combattere l'hijacking degli account, uno dei vettori più comuni di attacchi informatici oggi.

Anche altre misure possono aiutare a combattere gli attacchi di AI:

  • I programmi e le piattaforme di threat intelligence aiutano i team addetti alla sicurezza a rimanere aggiornati sulle minacce emergenti come il malware generato dall'AI.
  • Un mix di strumenti di rilevamento delle minacce, incluso sia strumenti basati sulle firme (come firewall), sia strumenti basati sulle anomalie, che utilizzano algoritmi di AI per individuare attività sospette nel traffico di rete. Il malware standard codificato a mano è già in grado di eludere alcuni tipi di soluzioni di sicurezza, quindi l'uso di più metodi di rilevamento ha senso indipendentemente dal fatto che gli hacker utilizzino l'AI.

  • L'addestramento sulla sicurezza può aiutare i dipendenti a individuare e rispondere correttamente alle campagne di ingegneria sociale e disinformazione basate su AI.

Usare l'AI per combattere l'AI

Mentre i malintenzionati possono avvalersi degli strumenti di AI per semplificare i loro processi, i difensori possono e devono fare lo stesso.

Secondo il Report Cost of a Data Breach di IBM, le organizzazioni che utilizzano l'automazione e l'AI per la cybersecurity possono ridurre significativamente i costi delle violazioni.

L'AI può rendere più efficaci gli sforzi di prevenzione e accelerare i tempi per il rilevamento e la correzione delle minacce, risparmiando 1,88 milioni di dollari dal costo medio di una violazione dei dati. (Per le organizzazioni che investono molto in AI per la sicurezza e l'automazione, una violazione costa in media 3,84 milioni di dollari. Per le organizzazioni senza AI per la sicurezza e automazione, la violazione costa in media 5,72 milioni di dollari.)

L'AI tradizionale basata su regole è già presente nei più comuni strumenti di cybersecurity come gli strumenti di rilevamento e risposta degli endpoint (EDR) e gli strumenti di analytics del comportamento degli utenti e delle entità (UEBA). Ma anche i nuovi modelli di AI generativa sono pronti a dare una mano ai difensori.

"Penso che i modelli di AI generativa avranno un grande impatto su aspetti come la risposta agli incidenti", afferma Boonen. "Ad esempio, potrebbero essere in grado di comprendere o riassumere gli incidenti più rapidamente perché i modelli possono esaminare molti più dati in un periodo di tempo più breve di quanto potrebbe fare un essere umano".

Questo velocizza il processo per gli analisti, che possono utilizzare questi insight per bloccare le minacce in modo più rapido ed efficace.

E mentre le AI possono produrre i deepfake che gli attori malintenzionati utilizzano per ingannare le persone, possono anche svolgere un ruolo fondamentale nella lotta contro questi stessi schemi.

"Alcune immagini sembrano già quasi indistinguibili rispetto alle immagini reali e, andando avanti, ho come il sospetto che la maggior parte delle persone non sarà in grado di distinguerle", spiega Boonen. "Quindi penso che dovremo addestrare i modelli AI a dire: "Questo video è falso" oppure "Questa immagine è falsa", cosa che gli esseri umani non possono fare".

Come per il futuro delle minacce basate su AI, è probabile che l'impatto dell'AI sui professionisti della cybersecurity sia più un cambiamento graduale che uno sconvolgimento esplosivo. Piuttosto che farsi travolgere dal clamore o lasciarsi trasportare dai profeti di sciagure, è meglio che i team addetti alla sicurezza facciano quello che hanno sempre fatto: tenere d'occhio il futuro con entrambi i piedi ben piantati nel presente.

Note a piè di pagina

Tutti i link sono esterni a ibm.com.

1. EyeSpy poof-of-concept, HYAS, 01 agosto 2023.

2. BlackMamba: using AI to generate polymorphic malware, HYAS, 31 luglio 2023.

3. Staying ahead of threat actors in the age of AI, Microsoft, 14 febbraio 2024.

4. Finance worker pays out USD 25 million after video call with deepfake "chief financial officer", CNN, 4 febbraio 2024.

Partner di una startup che camminano
Newsletter Think  
Gli ultimi insight in materia di AI e tecnologia di Think
Iscriviti oggi

Risorse

Cost of a Data Breach
Report
La cybersecurity nell'era dell'AI generativa
Guida
Che cos'è la sicurezza dell'AI?
Documento esplicativo
AI Academy IBM
Formazione sull'AI

Fai il passo successivo

I servizi di cybersecurity di IBM offrono servizi di consulenza, integrazione e gestione della sicurezza per sviluppare capacità offensive e difensive. Combiniamo un team globale di esperti con la tecnologia proprietaria e dei partner per creare insieme programmi di sicurezza su misura in grado di gestire i rischi.

  1. Scopri i servizi di sicurezza informatica