My IBM Accedi Iscriviti

Data di pubblicazione: 5 giugno 2024
Autori: Annie Badman, Matthew Kosinski

Che cos'è la sicurezza dell'AI?

Che cos'è la sicurezza dell'AI?

Abbreviazione di sicurezza dell'AI, la sicurezza dell'AI è il processo di utilizzo dell'AI per migliorare il livello di sicurezza di un'organizzazione. Con i sistemi con tecnologia AI, le organizzazioni possono automatizzare il rilevamento, la prevenzione e la correzione delle minacce per combattere in modo più efficace gli attacchi informatici e le violazioni dei dati.

Le organizzazioni possono integrare l'AI nelle pratiche di cybersecurity in numerosi modi. Gli strumenti per la sicurezza dell'AI più diffusi sfruttano l'apprendimento automatico e il deep learning per analizzare grandi quantità di dati, tra cui tendenze del traffico, utilizzo delle app, abitudini di navigazione e altri dati sulle attività di rete.

Questa analisi consente all'AI di scoprire i modelli e di stabilire una base per la sicurezza. Qualsiasi attività al di fuori di tale base viene contrassegnata immediatamente come anomalia e come potenziale minaccia informatica, consentendo così una rapida correzione.

Gli strumenti per la sicurezza dell'AI utilizzano spesso anche l'AI generativa (gen AI), resa popolare dai modelli linguistici di grandi dimensioni (LLM), per convertire i dati sulla sicurezza in consigli in testo semplice, semplificando così il processo decisionale per i team addetti alla sicurezza.

La ricerca mostra che gli strumenti per la sicurezza dell'AI migliorano significativamente il rilevamento delle minacce e la risposta agli incidenti. Secondo il report Cost of a Data Breach di IBM, le organizzazioni con automazione e sicurezza con tecnologia AI estese hanno individuato e contenuto le violazioni dei dati in media 108 giorni più velocemente rispetto alle organizzazioni senza strumenti di AI.

Inoltre, il report ha rilevato che le organizzazioni che fanno ampio ricorso alla sicurezza dell'AI risparmiano, in media, 1,76 milioni di dollari sui costi per rispondere alle violazioni dei dati. Si tratta di una differenza di quasi il 40% rispetto al costo medio di una violazione per le aziende che non utilizzano l'AI.

Per questi motivi, gli investimenti nella sicurezza dell'AI sono in aumento. Uno studio recente ha previsto che il mercato della sicurezza dell'AI, valutato 20,19 miliardi di dollari nel 2023, raggiungerà i 141,64 miliardi di dollari entro il 2032, con una crescita del 24,2 percento all'anno.1

Proteggere l'AI dagli attacchi informatici

Un'altra definizione di sicurezza dell'AI prevede la protezione dell'AI dalle minacce informatiche. Al riguardo, gli esperti di cybersecurity si concentrano su come gli autori delle minacce possono utilizzare l'AI per migliorare gli attacchi informatici attuali oppure sfruttare tutte le nuove superfici di attacco.

Ad esempio, gli LLM possono aiutare gli autori di un attacco a creare attacchi di phishing più personalizzati e sofisticati. Essendo una tecnologia relativamente nuova, i modelli AI offrono inoltre nuove opportunità per gli attacchi informatici, come ad esempio gli attacchi portati alla supply chain e attacchi avversari (vedi "Potenziali vulnerabilità e rischi per la sicurezza dell'AI").

Questa panoramica si concentra sulla definizione di sicurezza dell'AI, che implica l'utilizzo dell'AI per migliorare la cybersecurity. Tuttavia, include anche informazioni sulle potenziali vulnerabilità dell'AI e sulle best practice da adottare per proteggere i sistemi di AI.

Perché la sicurezza dell'AI è importante

Perché la sicurezza dell'AI è importante

L'attuale panorama delle minacce informatiche è complesso. Il passaggio al cloud e agli ambienti hybrid cloud ha portato all'aumento dei dati e all'espansione delle superfici di attacco, mentre gli autori delle minacce continuano a trovare nuovi modi per sfruttare le vulnerabilità. Allo stesso tempo, i professionisti della cybersecurity sono ancora poco richiesti, con oltre 700.000 posti di lavoro vacanti solo negli Stati Uniti.2

Il risultato è che gli attacchi informatici sono diventati più frequenti e costosi. Secondo il report Cost of a Data Breach, il costo medio globale per intervenire in caso di violazione dei dati nel 2023 è stato di 4,45 milioni di dollari, con un aumento del 15% nell'arco di tre anni.

La sicurezza dell'AI può offrire una soluzione. Automatizzando la risposta e il rilevamento delle minacce, l'AI rende più semplice la prevenzione degli attacchi e la cattura degli autori delle minacce in tempo reale. Gli strumenti di AI possono aiutare in tutto, dalla prevenzione degli attacchi di malware individuando e isolando il software dannoso, al rilevamento degli attacchi di forza bruta riconoscendo e bloccando i tentativi di accesso ripetuti.

Con la sicurezza dell'AI, le organizzazioni possono monitorare costantemente le proprie operazioni di sicurezza e utilizzare algoritmi di apprendimento automatico per adattarsi alle minacce informatiche in costante evoluzione.

Non investire nella sicurezza dell'AI è costoso. Le organizzazioni senza sicurezza dell'AI devono affrontare un costo medio di violazione dei dati pari a 5,36 milioni di dollari, il 18,6% in più rispetto al costo medio di tutte le organizzazioni. Anche le organizzazioni con una sicurezza dell'AI limitata hanno riportato un costo medio di violazione dei dati pari a 4,04 milioni di dollari. Si tratta di 400.000 dollari in meno rispetto alla media complessiva e il 28,1% in meno rispetto a quelle organizzazioni che non utilizzano affatto soluzioni per la sicurezza dell'AI.

Nonostante i vantaggi, l'AI pone dei problemi in termini di sicurezza, in particolare per quanto riguarda la sicurezza dei dati. I modelli AI sono affidabili solo nella misura in cui lo sono i dati di addestramento su cui si basano. Dati alterati o distorti possono provocare falsi positivi o risposte imprecise. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni possono rafforzare i pregiudizi di genere o razziali, con modelli AI che favoriscono alcuni gruppi demografici e discriminano altri.3

Gli strumenti di AI possono inoltre aiutare gli autori delle minacce a sfruttare con maggior successo le vulnerabilità della sicurezza. Ad esempio, gli autori di un attacco possono utilizzare l'AI per automatizzare la scoperta delle vulnerabilità del sistema o generare sofisticati attacchi di phishing.

Secondo la Reuters, il Federal Bureau of Investigation (FBI) ha registrato un aumento delle intrusioni informatiche dovute all'AI.4 Un recente report ha inoltre rilevato che il 75% dei professionisti esperti in cybersecurity sta rilevando a un aumento degli attacchi informatici, con l'85% che attribuisce l'aumento a soggetti malintenzionati che utilizzano la gen AI.5

Nonostante questi problemi, la ricerca mostra che solo il 24% dei progetti di gen AI di ultima generazione sono protetti.

In futuro, numerose organizzazioni cercheranno dei modi per investire tempo e risorse in un'AI sicura per sfruttare i vantaggi dell'AI senza compromettere l'etica o la sicurezza dell'AI (vedi "best practice per la sicurezza dell'AI").

Vantaggi della sicurezza dell'AI

Vantaggi della sicurezza dell'AI

Le funzionalità dell'AI possono offrire vantaggi significativi nel migliorare le difese della cybersecurity.

Tra i vantaggi più significativi della sicurezza con tecnologia AI vanno segnalati:

  • Miglioramento nel rilevamento delle minacce: gli algoritmi di AI possono analizzare grandi quantità di dati in tempo reale per migliorare la velocità e la precisione del rilevamento di potenziali minacce informatiche. Gli strumenti di AI possono inoltre individuare vettori di attacco sofisticati che le misure di sicurezza tradizionali potrebbero non rilevare.
  • Risposta più rapida agli incidenti: l'AI può ridurre il tempo necessario per rilevare, indagare e rispondere agli incidenti di sicurezza, consentendo alle organizzazioni di affrontare le minacce più rapidamente e ridurre così i danni potenziali.
  • Maggiore efficienza operativa: le tecnologie AI possono automatizzare le attività di routine, snellendo le operazioni di sicurezza e riducendo i costi. L'ottimizzazione delle operazioni di cybersecurity può inoltre ridurre gli errori umani e liberare i team addetti alla sicurezza in modo da potersi dedicare a progetti più strategici.
  • Un approccio proattivo alla cybersecurity: la sicurezza dell'AI consente alle organizzazioni di adottare un approccio più proattivo alla cybersecurity utilizzando i dati storici per prevedere le minacce informatiche future e individuare le vulnerabilità.
  • Conoscere le minacce emergenti: la sicurezza dell'AI aiuta le organizzazioni a stare al passo con gli autori delle minacce. Apprendendo costantemente dai nuovi dati, i sistemi di AI possono adattarsi alle minacce emergenti e garantire che le difese di cybersecurity rimangano aggiornate nei confronti dei nuovi metodi di attacco.
  • Miglioramento dell'esperienza utente: l'AI può migliorare le misure di sicurezza senza compromettere l'esperienza dell'utente. Ad esempio, i metodi di autenticazione basati su AI come il riconoscimento biometrico e l'analisi comportamentale, possono rendere l'autenticazione degli utenti più semplice e sicura.
  • Automatizzazione della conformità normativa: l'AI può aiutare ad automatizzare il monitoraggio della conformità, la protezione dei dati e il reporting, facendo in modo che le organizzazioni possano soddisfare costantemente i requisiti normativi.
  • Capacità di scalare: le soluzioni di cybersecurity con tecnologia AI possono scalare per proteggere ambienti IT grandi e complessi. Possono inoltre integrarsi con gli strumenti e le infrastrutture di cybersecurity esistenti, come le piattaforme SIEM (Security Information and Event Management) per migliorare la threat intelligence in tempo reale e le funzionalità di risposta automatizzata della rete.
Potenziali vulnerabilità e rischi per la sicurezza dell'AI

Potenziali vulnerabilità e rischi per la sicurezza dell'AI

Nonostante i numerosi vantaggi, l'adozione di nuovi strumenti di AI può aumentare la superficie di attacco di un'organizzazione e presentare diverse minacce per la sicurezza.

Alcuni dei rischi per la sicurezza più diffusi posti dall'AI includono:

Rischi per la sicurezza dei dati

I sistemi di AI si basano su set di dati che potrebbero essere vulnerabili a manomissioni, violazioni e altri attacchi. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità, la riservatezza e la disponibilità dei dati durante l'intero ciclo di vita dell'AI, dallo sviluppo all'addestramento e all'implementazione.

Rischi per la sicurezza dei modelli AI

Gli autori delle minacce possono prendere di mira i modelli AI a scopo di furto, reverse engineering o manipolazione non autorizzata. Gli autori di un attacco possono compromettere l'integrità di un modello manomettendo la sua architettura, i pesi o i parametri, ossia i componenti principali che determinano il comportamento e le prestazioni di un modello AI.

Attacchi avversari

Gli attacchi avversari comportano la manipolazione dei dati di input per ingannare i sistemi AI, portando a previsioni o classificazioni errate. Ad esempio, gli autori di un attacco possono generare esempi avversari che sfruttano le vulnerabilità degli algoritmi di AI per interferire con il processo decisionale dei modelli AI oppure dare luogo a pregiudizi.

Allo stesso modo, le prompt injections utilizzano prompt dannosi per indurre gli strumenti di AI a intraprendere azioni dannose, come la fuga di dati o l'eliminazione di documenti importanti.

Maggiori informazioni sulla prevenzione delle prompt injection
Implementazione etica e sicura

Se i team addetti alla sicurezza non assegnano la priorità alla sicurezza e all'etica quando implementano i sistemi di AI, rischiano di commettere delle violazioni della privacy e di esacerbare pregiudizi e falsi positivi. Solo con un'implementazione etica le organizzazioni possono garantire equità, trasparenza e responsabilità nel processo decisionale in materia di AI.

Conformità normativa

Rispettare i requisiti normativi e legali è fondamentale per garantire l'uso lecito ed etico dei sistemi di AI. Le organizzazioni devono rispettare delle normative come il Regolamento generale sulla protezione dei dati (GDPR), il California Consumer Privacy Act (CCPA) e l'EU AI Act oppure rischiano di esporre dati sensibili e incorrere in pesanti sanzioni legali.

Attacchi di manipolazione degli input

Gli attacchi di manipolazione degli input comportano l'alterazione dei dati di input per influenzare il comportamento o i risultati dei sistemi di AI. Gli autori di un attacco possono manipolare i dati di input per eludere il rilevamento, aggirare le misure di sicurezza o influenzare i processi decisionali, il che può portare a risultati distorti o imprecisi.

Ad esempio, gli autori delle minacce possono compromettere i risultati di un sistema di AI attraverso attacchi di avvelenamento dei dati, inserendo intenzionalmente dati di addestramento errati.

Attacchi alla supply chain

Gli attacchi portati alla supply chain si verificano quando gli autori delle minacce prendono di mira i sistemi di AI a livello di supply chain, anche nelle loro fasi di sviluppo, implementazione o manutenzione. Ad esempio, gli autori di un attacco possono sfruttare le vulnerabilità nei componenti, nelle librerie software o nei moduli di terze parti utilizzati nello sviluppo dell'AI, provocando violazioni dei dati o accessi non autorizzati.

Modelli AI drift and decay

I modelli AI possono subire una deriva o un decadimento nel tempo, con conseguente scadimento delle prestazioni o dell'efficacia. I soggetti malintenzionati possono sfruttare i punti deboli di un modello AI soggetto a drift and decay per manipolarne i risultati. Le organizzazioni possono monitorare i modelli AI per verificare eventuali cambiamenti nelle prestazioni, nel comportamento o nell'accuratezza, per mantenere la loro affidabilità e pertinenza.

Casi d'uso per la sicurezza dell'AI

Casi d'uso per la sicurezza dell'AI

Le applicazioni dell'AI nella cybersecurity sono diverse e in continua evoluzione man mano che gli strumenti di AI diventano sempre più avanzati e accessibili.

Alcuni dei casi d'uso più comuni dell'attuale sicurezza AI includono:

Protezione dei dati

La protezione dei dati implica la protezione delle informazioni sensibili dalla perdita e dalla corruzione dei dati per proteggere i dati e garantirne la disponibilità e la conformità ai requisiti normativi.

Gli strumenti di AI possono aiutare le organizzazioni a migliorare la protezione dei dati classificando i dati sensibili, monitorando il movimento dei dati e prevenendo l'accesso non autorizzato o l'esfiltrazione. L'AI può inoltre ottimizzare i processi di crittografia e tokenizzazione per proteggere i dati a riposo e in transito.

L'AI può inoltre adattarsi automaticamente al panorama delle minacce e monitorare costantemente le minacce 24 ore su 24, consentendo alle organizzazioni di essere sempre all'avanguardia rispetto alle minacce informatiche emergenti.

Sicurezza degli endpoint

La sicurezza degli endpoint implica la protezione dalle minacce alla cybersecurity degli endpoint come computer, server e dispositivi mobili.

L'AI può migliorare le soluzioni EDR (rilevamento e risposta degli endpoint) esistenti monitorando costantemente gli endpoint alla ricerca di eventuali comportamenti sospetti e anomalie per rilevare minacce alla sicurezza in tempo reale.

Gli algoritmi di apprendimento automatico possono inoltre aiutare a individuare e mitigare le minacce avanzate agli endpoint come il malware file-less e gli attacchi zero-day, prima che causino danni.

Sicurezza del cloud

L'AI può aiutare a proteggere i dati sensibili negli ambienti hybrid cloud, individuando automaticamente gli shadow data, monitorando le anomalie nell'accesso ai dati e avvisando gli esperti di cybersecurity delle minacce nel momento stesso in cui si verificano.

Ottimizzazione del rilevamento delle minacce

Le piattaforme di rilevamento delle minacce cercano in modo proattivo eventuali segnali di attività dannose all'interno della rete di un'organizzazione.

Con le integrazioni di AI, questi strumenti possono diventare ancora più avanzati ed efficienti analizzando set di dati di grandi dimensioni, individuando eventuali segni di intrusione e consentendo un rilevamento e una risposta più rapidi alle minacce avanzate.

Rilevazione di frodi

Con la diffusione degli attacchi informatici e il furto di identità, gli istituti finanziari hanno bisogno di trovare un modo per proteggere i propri clienti e i propri asset.

L'AI viene in soccorso di queste istituzioni analizzando automaticamente i dati transazionali alla ricerca di eventuali modelli che indicano delle frodi. Inoltre, gli algoritmi di apprendimento automatico possono adattarsi in tempo reale alle minacce nuove e a quelle in evoluzione, consentendo alle banche di migliorare costantemente le proprie funzionalità di rilevamento delle frodi e stare così al passo con gli autori delle minacce.

Automazione della sicurezza informatica

Gli strumenti di sicurezza dell'AI sono spesso più efficaci se integrati con l'infrastruttura esistente di sicurezza di un'organizzazione.

Ad esempio, la Security Orchestration, Automation and Response (SOAR) è una soluzione software adottata da numerose organizzazioni per semplificare le operazioni di sicurezza. L'AI può integrarsi con le piattaforme SOAR per automatizzare le attività e i workflow di routine. Questa integrazione può consentire una risposta più rapida agli incidenti e liberare gli analisti della sicurezza affinché possano concentrarsi su problemi più complessi.

Gestione identità e accessi (IAM)

Gli strumenti di Gestione delle identità e degli accessi (IAM) gestiscono il modo in cui gli utenti accedono alle risorse digitali e quello che possono fare con esse. L'obiettivo è tenere lontani gli hacker garantendo al contempo che ogni utente disponga delle autorizzazioni esatte di cui ha bisogno e non di più.

Le soluzioni di gestione delle identità e degli accessi (IAM) basate sull'AI possono migliorare questo processo fornendo controlli di accesso granulari basati su ruoli, responsabilità e comportamento, garantendo ulteriormente che solo gli utenti autorizzati possano accedere ai dati sensibili.

L'AI inoltre può migliorare i processi di autenticazione utilizzando l'apprendimento automatico per analizzare i modelli di comportamento degli utenti e abilitare misure di autenticazione adattiva che cambiano in base ai livelli di rischio dei singoli utenti.

Rilevamento del phishing

Gli LLM come ChatGPT hanno reso gli attacchi di phishing più facili da condurre e più difficili da riconoscere. Tuttavia, l'AI si è anche affermata come strumento fondamentale per combattere il phishing.

I modelli di apprendimento automatico possono aiutare le organizzazioni ad analizzare le e-mail e altre comunicazioni alla ricerca di eventuali segni di phishing, migliorando l'accuratezza del rilevamento e riducendo i tentativi di phishing riusciti. Le soluzioni per la sicurezza delle e-mail con tecnologia AI possono inoltre fornire threat intelligence in tempo reale e risposte automatiche per intercettare gli attacchi di phishing nel momento stesso in cui si verificano.

Gestione delle vulnerabilità

La gestione delle vulnerabilità è la scoperta, assegnazione delle priorità, mitigazione e risoluzione delle vulnerabilità alla sicurezza costanti nell'infrastruttura IT e nel software di un'organizzazione.

L'AI può migliorare gli scanner delle vulnerabilità tradizionali, assegnando automaticamente le priorità alle vulnerabilità in base all'impatto potenziale e alla probabilità di sfruttamento. Questo aiuta le organizzazioni ad affrontare prima i rischi alla sicurezza più critici.

L'AI può inoltre automatizzare la gestione delle patch per ridurre tempestivamente l'esposizione alle minacce informatiche.

Best practice per la sicurezza dell'AI

Best practice per la sicurezza dell'AI

Per bilanciare rischi e benefici per la sicurezza dell'AI, numerose organizzazioni elaborano strategie per la sicurezza dell'AI esplicite che delineano il modo in cui gli stakeholder dovrebbero sviluppare, implementare e gestire i sistemi di AI.

Sebbene queste strategie varino necessariamente tra le varie aziende, alcune delle best practice comunemente utilizzate includono:

Implementazione di processi formali di governance dei dati

Le pratiche di governance dei dati e di gestione del rischio possono aiutare a proteggere le informazioni sensibili utilizzate nei processi di AI mantenendo al contempo l'efficacia dell'AI.

Utilizzando set di dati di addestramento pertinenti e accurati e aggiornando costantemente i modelli AI con nuovi dati, le organizzazioni possono contribuire a garantire che i propri modelli si adattino alle minacce che si evolvono nel tempo.

Integrazione dell'AI con gli strumenti di sicurezza esistenti

L'integrazione degli strumenti di AI con l'infrastruttura di cybersecurity esistente, come i feed di threat intelligence e i sistemi SIEM, può aiutare a massimizzare l'efficacia riducendo al minimo le interruzioni e i tempi di inattività che possono derivare dall'implementazione di nuove misure di sicurezza.

Assegnazione di priorità all'etica e alla trasparenza

Mantenere la trasparenza nei processi di AI documentando algoritmi e fonti di dati e comunicando apertamente con gli stakeholder sull'uso dell'AI può aiutare a individuare e mitigare potenziali pregiudizi e ingiustizie.

Applicazione dei controlli di sicurezza ai sistemi di AI

Sebbene gli strumenti di AI possano migliorare il livello di sicurezza, possono anche trarre vantaggio dalle proprie misure di sicurezza.

La crittografia, il controllo degli accessi e gli strumenti di monitoraggio delle minacce possono aiutare le organizzazioni a proteggere i propri sistemi di AI e i dati sensibili che utilizzano.

Monitoraggio e valutazione costanti

Il monitoraggio costante dei sistemi di AI per quanto riguarda prestazioni, conformità e accuratezza può aiutare le organizzazioni a soddisfare i requisiti normativi e a perfezionare i modelli AI nel tempo.

Soluzioni correlate

Soluzioni correlate

Soluzioni per la sicurezza e la protezione dei dati

Proteggi i dati aziendali in ambienti diversi, rispetta le normative sulla privacy e semplifica le complessità operative.

Scopri le soluzioni per la sicurezza dei dati

IBM Guardium

Ottieni ampia visibilità, conformità e protezione per tutto il ciclo di vita della sicurezza dei dati con IBM Guardium.

Esplora IBM Guardium

IBM Verify

La famiglia IBM Verify fornisce funzionalità automatizzate, basate su cloud e on-premise per la gestione della governance delle identità, della forza lavoro, delle identità e degli accessi dei clienti, nonché per controllare gli account con privilegi.

Esplora IBM Verify
Fai il passo successivo

IBM® Security offre soluzioni innovative e basate su AI che ottimizzano il tempo impiegato dagli analisti, accelerando il rilevamento delle minacce, velocizzando le risposte e proteggendo l'identità utente e i set di dati, il tutto mantenendo i team addetti alla cybersecurity informati e a capo delle operazioni.

Esplora le soluzioni basate su AI di IBM