Che cos'è la sicurezza dell'AI?

Autori

Annie Badman

Staff Writer

IBM Think

Matthew Kosinski

Staff Editor

IBM Think

Che cos'è la sicurezza dell'AI?

Abbreviazione di sicurezza dell'AI, la sicurezza dell'AI è il processo di utilizzo dell'AI per migliorare il livello di sicurezza di un'organizzazione. Con i sistemi con tecnologia AI, le organizzazioni possono automatizzare il rilevamento, la prevenzione e la correzione delle minacce per combattere in modo più efficace gli attacchi informatici e le violazioni dei dati.

Le organizzazioni possono integrare l'AI nelle pratiche di cybersecurity in numerosi modi. Gli strumenti per la sicurezza dell'AI più diffusi utilizzano il machine learning (ML) e il deep learning per analizzare grandi quantità di dati, tra cui tendenze del traffico, utilizzo delle app, abitudini di navigazione e altri dati sulle attività di rete.

Questa analisi consente all'AI di scoprire i modelli e di stabilire una base per la sicurezza. Qualsiasi attività al di fuori di questa base viene contrassegnata immediatamente come anomala e come potenziale minaccia informatica, consentendo così una rapida correzione.

Gli strumenti per la sicurezza dell'AI utilizzano spesso anche l'AI generativa (gen AI), resa popolare dai modelli linguistici di grandi dimensioni (LLM), per convertire i dati sulla sicurezza in consigli in testo semplice, semplificando così il processo decisionale per i team addetti alla sicurezza.

La ricerca mostra che gli strumenti per la sicurezza dell'AI migliorano significativamente il rilevamento delle minacce e la risposta agli incidenti. Secondo il report Cost of a Data Breach di IBM, le organizzazioni con automazione e sicurezza con tecnologia AI estese hanno individuato e contenuto le violazioni dei dati in media 108 giorni più velocemente rispetto alle organizzazioni senza strumenti di AI.

Inoltre, il report ha rilevato che le organizzazioni che fanno ampio ricorso alla sicurezza dell'AI risparmiano, in media, 1,76 milioni di dollari sui costi per rispondere alle violazioni dei dati. Si tratta di una differenza di quasi il 40% rispetto al costo medio di una violazione per le aziende che non utilizzano l'AI.

Per questi motivi, gli investimenti nella sicurezza dell'AI sono in aumento. Uno studio recente ha previsto che il mercato della sicurezza dell'AI, valutato 20,19 miliardi di dollari nel 2023, raggiungerà i 141,64 miliardi di dollari entro il 2032, con una crescita del 24,2 percento all'anno.1

Il tuo team sarebbe in grado di rilevare in tempo il prossimo zero-day?

Unisciti ai leader della sicurezza che si affidano alla newsletter Think per ricevere notizie selezionate su AI, cybersecurity, dati e automazione. Impara velocemente da tutorial e articoli informativi consegnati direttamente nella tua casella di posta. Leggi l'Informativa sulla privacy IBM.

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'informativa sulla privacy IBM.

https://www.ibm.com/it-it/privacy

Sicurezza dell'AI e protezione dell'AI a confronto

La sicurezza dell'AI assume significati diversi in contesti diversi. Sebbene il tema di questa pagina sia l'uso dell'AI per migliorare la sicurezza informatica, altre due definizioni comuni riguardano la protezione dei modelli e dei programmi di AI dagli usi dannosi o dagli accessi non autorizzati.

In una definizione, gli esperti di cybersecurity si concentrano su come i criminali informatici utilizzano l'AI per migliorare i loro attacchi informatici o utilizzare nuove superfici di attacco.

Ad esempio, gli LLM possono aiutare gli autori di un attacco a creare attacchi di phishing più personalizzati e sofisticati. Essendo una tecnologia relativamente nuova, i modelli AI offrono inoltre nuove opportunità per gli attacchi informatici, come ad esempio gli attacchi portati alla supply chain e attacchi avversari (vedi "Potenziali vulnerabilità e rischi per la sicurezza dell'AI").

Un'altra definizione di sicurezza dell'AI riguarda la protezione delle implementazioni di AI. Un recente studio dell'IBM Institute for Business Value ha rilevato che solo il 24% degli attuali progetti di gen AI sono protetti. La protezione dei progetti di AI implica pratiche per proteggere i dati, i modelli e l'utilizzo dell'AI.

Ad esempio, le esercitazioni del red team (in cui gli hacker etici si comportano come se fossero avversari del mondo reale), prendono di mira in genere sistemi di AI, modelli di machine learning e set di dati che supportano applicazioni di AI e ML.

La protezione delle implementazioni di AI può anche comportare il monitoraggio per eliminare i casi di shadow AI, che è l'uso non autorizzato di modelli e strumenti AI. Tutte queste pratiche aiutano anche le aziende a gestire il rischio dell'AI e ad affrontare i problemi di conformità.

Perché la sicurezza dell'AI è importante

L'attuale panorama delle minacce informatiche è complesso. Il passaggio al cloud e agli ambienti hybrid cloud ha portato all'aumento dei dati e all'espansione delle superfici di attacco, mentre gli autori delle minacce continuano a trovare nuovi modi per sfruttare le vulnerabilità. Allo stesso tempo, i professionisti della cybersecurity sono ancora poco richiesti, con oltre 700.000 posti di lavoro vacanti solo negli Stati Uniti.2

Il risultato è che gli attacchi informatici sono diventati più frequenti e costosi. Secondo il report Cost of a Data Breach, il costo medio globale per intervenire in caso di violazione dei dati nel 2023 è stato di 4,45 milioni di dollari, con un aumento del 15% nell'arco di tre anni.

La sicurezza dell'AI può offrire una soluzione. Automatizzando la risposta e il rilevamento delle minacce, l'AI rende più semplice prevenire gli attacchi e individuare i criminali informatici in tempo reale. Gli strumenti di AI possono aiutare in tutto, dalla prevenzione degli attacchi di malware individuando e isolando il software dannoso, al rilevamento degli attacchi di forza bruta riconoscendo e bloccando i tentativi di accesso ripetuti.

Con la sicurezza dell'AI, le organizzazioni possono monitorare costantemente le proprie operazioni di sicurezza e utilizzare algoritmi di machine learning per adattarsi alle minacce informatiche in costante evoluzione.

Non investire nella sicurezza dell'AI è costoso. Le organizzazioni senza sicurezza dell'AI devono affrontare un costo medio di violazione dei dati pari a 5,36 milioni di dollari, il 18,6% in più rispetto al costo medio di tutte le organizzazioni.

Anche una sicurezza limitata potrebbe fornire risparmi significativi sui costi: le organizzazioni con una sicurezza AI limitata hanno riportato un costo medio per le violazioni dei dati pari a 4,04 milioni di dollari, 400.000 dollari in meno rispetto alla media complessiva, e il 28,1% in meno rispetto a quelli senza alcuna sicurezza dell'AI.

Nonostante i vantaggi, l'AI pone dei problemi in termini di sicurezza, in particolare per quanto riguarda la sicurezza dei dati. I modelli AI sono affidabili solo nella misura in cui lo sono i dati di addestramento su cui si basano. Dati alterati o distorti possono provocare falsi positivi o risposte imprecise. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni possono rafforzare i pregiudizi di genere o razziali, con modelli AI che favoriscono alcuni gruppi demografici e discriminano altri.3

Gli strumenti di AI possono inoltre aiutare i criminali informatici a utilizzare con maggiore successo le vulnerabilità della sicurezza. Ad esempio, gli autori di un attacco possono utilizzare l'AI per automatizzare la scoperta delle vulnerabilità del sistema o generare sofisticati attacchi di phishing.

Secondo la Reuters, il Federal Bureau of Investigation (FBI) ha registrato un aumento delle intrusioni informatiche dovute all'AI.4 Un recente report ha inoltre rilevato che il 75% dei professionisti esperti in cybersecurity sta rilevando a un aumento degli attacchi informatici, con l'85% che attribuisce l'aumento a soggetti malintenzionati che utilizzano la gen AI.5

In futuro, molte organizzazioni cercheranno modi per investire tempo e risorse in un'AI sicura, al fine di utilizzare i benefici dell'AI senza compromettere la sicurezza o l'etica dell'AI (vedi "best practice per la sicurezza dell'AI").

Vantaggi della sicurezza dell'AI

Le funzionalità dell'AI possono offrire vantaggi significativi nel miglioramento delle difese della cybersecurity. Tra i benefici più significativi della sicurezza dell'AI vanno segnalati:

  • Miglioramento nel rilevamento delle minacce: gli algoritmi di AI possono analizzare grandi quantità di dati in tempo reale per migliorare la velocità e la precisione del rilevamento di potenziali minacce informatiche. Gli strumenti di AI possono inoltre individuare vettori di attacco sofisticati che le misure di sicurezza tradizionali potrebbero non rilevare.
  • Risposta più rapida agli incidenti: l'AI può ridurre il tempo necessario per rilevare, indagare e rispondere agli incidenti di sicurezza, consentendo alle organizzazioni di affrontare le minacce più rapidamente e ridurre così i danni potenziali.
  • Maggiore efficienza operativa: le tecnologie AI possono automatizzare le attività di routine, snellendo le operazioni di sicurezza e riducendo i costi. L'ottimizzazione delle operazioni di cybersecurity può inoltre ridurre gli errori umani e liberare i team addetti alla sicurezza in modo da potersi dedicare a progetti più strategici.
  • Un approccio proattivo alla cybersecurity: la sicurezza dell'AI consente alle organizzazioni di adottare un approccio più proattivo alla cybersecurity utilizzando i dati storici per prevedere le minacce informatiche future e individuare le vulnerabilità.
  • Conoscere le minacce emergenti: la sicurezza dell'AI aiuta le organizzazioni a stare al passo con gli autori delle minacce. Apprendendo costantemente dai nuovi dati, i sistemi di AI possono adattarsi alle minacce emergenti e garantire che le difese di cybersecurity rimangano aggiornate nei confronti dei nuovi metodi di attacco.
  • Miglioramento dell'esperienza dell'utente: l'AI può migliorare le misure di sicurezza senza compromettere l'esperienza dell'utente. Ad esempio, i metodi di autenticazione basati su AI come il riconoscimento biometrico e l'analisi comportamentale, possono rendere l'autenticazione degli utenti più semplice e sicura.
  • Capacità di scalare: le soluzioni di cybersecurity con tecnologia AI possono scalare per proteggere ambienti IT grandi e complessi. Possono inoltre integrarsi con gli strumenti e le infrastrutture di cybersecurity esistenti, come le piattaforme di security information and event management (SIEM), per migliorare la threat intelligence in tempo reale e le funzionalità di risposta automatizzata della rete.

Potenziali vulnerabilità e rischi per la sicurezza dell'AI

Nonostante i numerosi vantaggi, l'adozione di nuovi strumenti di AI può aumentare la superficie di attacco di un'organizzazione e presentare diverse minacce per la sicurezza.

Alcuni dei rischi per la sicurezza più diffusi posti dall'AI includono:

Rischi per la sicurezza dei dati

I sistemi di AI si basano su set di dati che potrebbero essere vulnerabili a manomissioni, violazioni e altri attacchi. Le organizzazioni possono mitigare questi rischi proteggendo la riservatezza, la disponibilità e l'integrità dei dati durante l'intero ciclo di vita dell'AI, dallo sviluppo all'addestramento, fino all'implementazione.

Rischi per la sicurezza dei modelli AI

Gli autori delle minacce possono prendere di mira i modelli AI a scopo di furto, reverse engineering o manipolazione non autorizzata. Gli autori di un attacco possono compromettere l'integrità di un modello manomettendo la sua architettura, i pesi o i parametri, ossia i componenti principali che determinano il comportamento e le prestazioni di un modello AI.

Attacchi avversari

Gli attacchi avversari comportano la manipolazione dei dati di input per ingannare i sistemi AI, portando a previsioni o classificazioni errate.Ad esempio, gli autori di un attacco possono generare esempi avversari che utilizzano le vulnerabilità degli algoritmi di AI per interferire con il processo decisionale dei modelli AI, oppure per dare luogo a pregiudizi.

Allo stesso modo, le prompt injection utilizzano prompt dannosi per indurre gli strumenti di AI a intraprendere azioni dannose, come la fuga di dati o l'eliminazione di documenti importanti.

Implementazione etica e sicura

Se i team addetti alla sicurezza non assegnano la priorità alla sicurezza e all'etica quando implementano i sistemi di AI, rischiano di commettere delle violazioni della privacy e di esacerbare bias e falsi positivi. Solo con un'implementazione etica le organizzazioni possono garantire equità, trasparenza e responsabilità nel processo decisionale basato su AI.

Conformità normativa

Rispettare i requisiti normativi e legali è fondamentale per garantire l'uso etico e lecito dei sistemi di AI. Le organizzazioni devono rispettare normative come il Regolamento generale sulla protezione dei dati (GDPR), il California Consumer Privacy Act (CCPA) e l'EU AI Act, altrimenti rischiano di esporre dati sensibili e di incorrere in pesanti sanzioni legali.

Attacchi di manipolazione degli input

Gli attacchi di manipolazione degli input comportano l'alterazione dei dati di input per influenzare il comportamento o i risultati dei sistemi di AI. Gli autori di un attacco possono manipolare i dati di input per eludere il rilevamento, aggirare le misure di sicurezza o influenzare i processi decisionali, il che può portare a risultati distorti o imprecisi.

Ad esempio, i criminali informatici possono compromettere gli output di un sistema di AI tramite attacchi di avvelenamento dei dati, fornendo intenzionalmente al modello dati di addestramento errati.

Attacchi alla supply chain

Gli attacchi portati alla supply chain si verificano quando gli autori delle minacce prendono di mira i sistemi di AI a livello di supply chain, anche nelle loro fasi di sviluppo, implementazione o manutenzione. Ad esempio, gli autori di un attacco possono sfruttare le vulnerabilità nei componenti, nelle librerie software o nei moduli di terze parti utilizzati nello sviluppo dell'AI, provocando violazioni dei dati o accessi non autorizzati.

Modelli AI drift and decay

I modelli AI possono subire una deriva o un decadimento nel tempo, con conseguente degrado delle prestazioni o dell'efficacia. I malintenzionati possono utilizzare i punti deboli di un modello AI soggetto a deriva e degrado per manipolarne i risultati. Le organizzazioni possono monitorare i modelli AI per verificare eventuali cambiamenti a livello di prestazioni, comportamenti o accuratezza, al fine di mantenere la loro affidabilità e pertinenza.

Casi d'uso per la sicurezza dell'AI

Le applicazioni dell'AI nella cybersecurity sono diverse e in continua evoluzione, via via che gli strumenti di AI diventano sempre più avanzati e accessibili.

Alcuni dei casi d'uso più comuni dell'attuale sicurezza AI includono:

Protezione dei dati

La protezione dei dati implica la protezione delle informazioni sensibili dalla perdita e dalla corruzione dei dati per proteggere i dati e garantirne la disponibilità e la conformità ai requisiti normativi.

Gli strumenti di AI possono aiutare le organizzazioni a migliorare la protezione dei dati classificando i dati sensibili, monitorando il movimento dei dati e prevenendo l'accesso non autorizzato o l'esfiltrazione. L'AI può inoltre ottimizzare i processi di crittografia e tokenizzazione per proteggere i dati a riposo e in transito.

L'AI può inoltre adattarsi automaticamente al panorama delle minacce e monitorare costantemente le minacce 24 ore su 24, consentendo alle organizzazioni di essere sempre all'avanguardia rispetto alle minacce informatiche emergenti.

Sicurezza degli endpoint

La sicurezza degli endpoint implica la protezione dalle minacce alla cybersecurity di endpoint come computer, server e dispositivi mobili.

L'AI può migliorare le soluzioni di rilevamento e risposta degli endpoint (EDR) esistenti monitorando costantemente gli endpoint alla ricerca di eventuali comportamenti sospetti e anomalie per rilevare le minacce alla sicurezza in tempo reale.

Gli algoritmi di apprendimento automatico possono inoltre aiutare a individuare e mitigare le minacce avanzate agli endpoint come il malware file-less e gli attacchi zero-day, prima che causino danni.

Sicurezza del cloud

L'AI può aiutare a proteggere i dati sensibili negli ambienti hybrid cloud, individuando automaticamente gli shadow data, monitorando le anomalie dell'accesso ai dati e avvisando gli esperti di cybersecurity delle minacce nel momento stesso in cui si verificano.

Ottimizzazione del rilevamento delle minacce

Le piattaforme di rilevamento delle minacce cercano in modo proattivo eventuali segnali di attività dannose all'interno della rete di un'organizzazione.

Con le integrazioni di AI, questi strumenti possono diventare ancora più avanzati ed efficienti analizzando set di dati di grandi dimensioni, individuando eventuali segni di intrusione e consentendo un rilevamento e una risposta più rapidi alle minacce avanzate.

Rilevazione di frodi

Con la diffusione degli attacchi informatici e il furto di identità, gli istituti finanziari hanno bisogno di trovare un modo per proteggere i propri clienti e i propri asset.

L'AI viene in soccorso di queste istituzioni analizzando automaticamente i dati transazionali alla ricerca di eventuali modelli che indicano la presenza di frodi. Inoltre, gli algoritmi di machine learning possono adattarsi in tempo reale alle minacce nuove e a quelle in evoluzione, consentendo alle banche di migliorare costantemente le proprie funzionalità di rilevamento delle frodi e stare così al passo con i criminali informatici.

Automazione della sicurezza informatica

Gli strumenti di sicurezza dell'AI sono spesso più efficaci se integrati con l'infrastruttura esistente di sicurezza di un'organizzazione.

Ad esempio, la security orchestration, automation and response (SOAR) è una soluzione software adottata da numerose organizzazioni per semplificare le operazioni di sicurezza. L'AI può integrarsi con le piattaforme SOAR per automatizzare le attività e i workflow di routine. Questa integrazione può consentire una risposta più rapida agli incidenti e liberare gli analisti della sicurezza affinché possano concentrarsi su problemi più complessi.

Gestione identità e accessi (IAM)

Gli strumenti di gestione delle identità e degli accessi (IAM) si occupano del modo in cui gli utenti accedono alle risorse digitali e quello che possono fare con esse. L'obiettivo è quello di tenere lontani gli hacker, garantendo al contempo che ogni utente disponga delle autorizzazioni esatte di cui necessita e non di più.

Le soluzioni di gestione delle identità e degli accessi (IAM) basate sull'AI possono migliorare questo processo fornendo controlli di accesso granulari basati su ruoli, responsabilità e comportamento, garantendo ulteriormente che solo gli utenti autorizzati possano accedere ai dati sensibili.

L'AI può inoltre migliorare i processi di autenticazione utilizzando il machine learning per analizzare i modelli di comportamento degli utenti e abilitare misure di autenticazione adattiva che cambiano in base ai livelli di rischio dei singoli utenti.

Rilevamento del phishing

Gli LLM come ChatGPT hanno reso gli attacchi di phishing più facili da condurre e più difficili da riconoscere. Tuttavia, l'AI si è anche affermata come strumento critico per combattere il phishing.

I modelli di machine learning possono aiutare le organizzazioni ad analizzare le e-mail e altre comunicazioni alla ricerca di eventuali segnali di phishing, migliorando l'accuratezza del rilevamento e riducendo i tentativi di phishing andati a buon fine. Le soluzioni per la sicurezza delle e-mail con tecnologia AI possono inoltre fornire threat intelligence in tempo reale e risposte automatiche per intercettare gli attacchi di phishing nel momento stesso in cui si verificano.

Gestione delle vulnerabilità

La gestione delle vulnerabilità è la scoperta, assegnazione delle priorità, mitigazione e risoluzione delle vulnerabilità alla sicurezza costanti nell'infrastruttura IT e nel software di un'organizzazione.

L'AI può migliorare gli scanner delle vulnerabilità tradizionali, assegnando automaticamente le priorità alle vulnerabilità in base all'impatto potenziale e alla probabilità di sfruttamento. Questo aiuta le organizzazioni ad affrontare prima i rischi alla sicurezza più critici.

L'AI può inoltre automatizzare la gestione delle patch per ridurre tempestivamente l'esposizione alle minacce informatiche.

Best practice per la sicurezza dell'AI

Per bilanciare rischi e benefici per la sicurezza dell'AI, numerose organizzazioni elaborano strategie per la sicurezza dell'AI esplicite che delineano il modo in cui gli stakeholder dovrebbero sviluppare, implementare e gestire i sistemi di AI.

Sebbene queste strategie varino necessariamente tra le varie aziende, alcune delle best practice comunemente utilizzate includono:

Implementazione di processi formali di governance dei dati

Le pratiche di governance dei dati e di gestione del rischio possono aiutare a proteggere le informazioni sensibili utilizzate nei processi di AI, mantenendo al contempo l'efficacia dell'AI.

Utilizzando set di dati di addestramento pertinenti e accurati e aggiornando costantemente i modelli AI con nuovi dati, le organizzazioni possono contribuire a garantire che i propri modelli si adattino alle minacce che si evolvono nel tempo.

Integrazione dell'AI con gli strumenti di sicurezza esistenti

L'integrazione degli strumenti di AI con l'infrastruttura di cybersecurity esistente, come i feed di threat intelligence e i sistemi SIEM, può aiutare a massimizzare l'efficacia riducendo al minimo le interruzioni e i tempi di inattività che possono derivare dall'implementazione di nuove misure di sicurezza.

Assegnazione di priorità all'etica e alla trasparenza

Mantenere la trasparenza nei processi di AI, documentando algoritmi e fonti di dati e comunicando apertamente con gli stakeholder in merito all'uso dell'AI, può aiutare a individuare e mitigare potenziali bias e ingiustizie.

Applicazione dei controlli di sicurezza ai sistemi di AI

Sebbene gli strumenti di AI possano migliorare il livello di sicurezza, possono anche trarre vantaggio dalle proprie misure di sicurezza.

La crittografia, il controllo degli accessi e gli strumenti di monitoraggio delle minacce possono aiutare le organizzazioni a proteggere i propri sistemi di AI e i dati sensibili che utilizzano.

Monitoraggio e valutazione costanti

Il monitoraggio costante dei sistemi di AI a livello di prestazioni, conformità e accuratezza può aiutare le organizzazioni a soddisfare i requisiti normativi e a perfezionare i modelli di AI nel tempo.

Soluzioni correlate
Soluzioni di sicurezza aziendale

Trasforma il tuo programma di sicurezza con le soluzioni offerte dal più grande provider di sicurezza aziendale.

Esplora le soluzioni di cybersecurity
Servizi di cybersecurity

Trasforma il tuo business e gestisci i rischi con la consulenza sulla cybersecurity, il cloud e i servizi di sicurezza gestiti.

    Scopri i servizi di sicurezza informatica
    Cybersecurity dell'intelligenza artificiale (AI)

    Migliora la velocità, l'accuratezza e la produttività dei team di sicurezza con soluzioni di cybersecurity basate sull'AI.

    Esplora la cybersecurity dell'AI
    Fai il passo successivo

    Che tu abbia bisogno di soluzioni di sicurezza dei dati, di gestione degli endpoint, o di gestione delle identità e degli accessi (IAM), i nostri esperti sono pronti a collaborare con te per farti raggiungere un solido livello di sicurezza.Trasforma il tuo business e gestisci i rischi con un leader a livello globale nel campo della consulenza per la cybersecurity, del cloud e dei servizi di sicurezza gestiti.

    Esplora le soluzioni di cybersecurity Scopri i servizi di cybersecurity