My IBM Accedi Iscriviti

Cos'è la gestione del rischio AI?

20 giugno 2024

Tempo di lettura: 8 minuti

La gestione del rischio dell'AI è il processo di individuazione, riduzione e gestione sistematica dei potenziali rischi associati alle tecnologie di AI. Implica una combinazione di strumenti, pratiche e principi, con un'enfasi particolare sull'implementazione di framework formali di gestione del rischio dell'AI.

In generale, l'obiettivo della gestione del rischio dell'AI è quello di ridurre al minimo i potenziali impatti negativi dell'AI, aumentandone al massimo i benefici.

Gestione del rischio e governance dell'AI

La gestione del rischio dell'AI fa parte del campo più ampio della governance dell'AI. La governance dell'AI si riferisce alle protezioni che garantiscono che gli strumenti e i sistemi di AI siano sicuri ed etici e che rimangano tali.

La governance dell'AI è una disciplina completa, mentre la gestione del rischio dell'AI è un processo all'interno di tale disciplina. La gestione del rischio dell'AI si concentra in particolare sull'identificazione e sulla risoluzione delle vulnerabilità e delle minacce per mantenere i sistemi di AI al sicuro dai danni. La governance dell'AI stabilisce i framework, le regole e gli standard che indirizzano la ricerca, lo sviluppo e l'applicazione dell'AI per garantire sicurezza, equità e rispetto dei diritti umani.

Perché la gestione del rischio nei sistemi di AI è importante

Negli ultimi anni, l'uso di sistemi di AI è aumentato in tutti i settori. McKinsey segnala che il 72% delle organizzazioni utilizza attualmente una qualche forma di intelligenza artificiale (AI), con un aumento del 17% rispetto al 2023.

Sebbene le organizzazioni inseguano i benefici dell'AI, come innovazione, efficienza e aumento della produttività, non sempre ne affrontano i potenziali rischi, come problemi di privacy, minacce alla sicurezza e questioni etiche e legali.

I leader sono ben consapevoli di questa sfida. Un recente studio dell'IBM Institute for Business Value (IBM IBV) ha rilevato che il 96% dei leader ritiene che l'adozione dell'AI generativa renda più probabile una violazione di sicurezza. Allo stesso tempo, l'IBM Institute for Business Value ha anche rilevato che solo il 24% degli attuali progetti di AI generativa è protetto.

La gestione del rischio dell'AI può aiutare a colmare questa lacuna, consentendo alle organizzazioni di usufruire appieno del potenziale dei sistemi di AI senza comprometterne l'etica o la sicurezza.

Comprendere i rischi associati ai sistemi di AI

Come per altri tipi di rischi per la sicurezza, anche i rischi legati all'AI possono essere intesi come una misura della probabilità che una potenziale minaccia legata all'AI si ripercuota su un'organizzazione, così come dell'entità del danno che tale minaccia arrecherebbe.

Sebbene ogni modello AI e ogni caso d'uso siano differenti, i rischi dell'AI si dividono generalmente in quattro categorie:

  • Rischi relativi ai dati
  • Rischi relativi al modello
  • Rischi operativi
  • Rischi etici e legali

Se non gestiti correttamente, questi rischi possono esporre le organizzazioni e sistemi di AI a danni significativi, tra cui perdite finanziarie, danni alla reputazione, sanzioni normative, calo della fiducia pubblica e violazioni dei dati.

Rischi relativi ai dati

I sistemi di AI si basano su set di dati che potrebbero essere vulnerabili a manomissioni, violazioni, pregiudizi o attacchi informatici. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità, la sicurezza e la disponibilità dei dati durante l'intero ciclo di vita dell'AI, dallo sviluppo, all'addestramento e all'implementazione.

 I rischi più comuni legati ai dati includono:

  • Sicurezza dei dati: la sicurezza dei dati è una delle sfide più grandi e critiche che i sistemi di AI devono affrontare. I criminali informatici possono causare seri problemi alle organizzazioni violando i set di dati che alimentano le tecnologie di AI, inclusi accessi non autorizzati, perdita di dati e compromissione della riservatezza.
  • Privacy dei dati: i sistemi di AI spesso gestiscono dati personali sensibili, che possono essere vulnerabili alle violazioni della privacy, con conseguenti problemi normativi e legali per le organizzazioni.
  • Integrità dei dati: i modelli AI sono affidabili solo nella misura in cui lo sono i dati di addestramento su cui si basano. Dati alterati o distorti possono generare falsi positivi, output imprecisi o decisioni sbagliate.

Rischi relativi al modello

I criminali informatici possono prendere di mira i modelli AI a scopo di furto, reverse engineering o manipolazioni non autorizzate. Gli autori di un attacco possono compromettere l'integrità di un modello manomettendone l'architettura, i pesi o i parametri, ovvero i componenti principali che determinano il comportamento e le prestazioni di un modello AI.

Alcuni dei rischi più comuni legati ai modelli includono:

  • Attacchi avversari: questi attacchi manipolano i dati di input per ingannare i sistemi di AI, portando a previsioni o classificazioni errate. Ad esempio, gli autori di un attacco possono generare esempi avversari che vengono forniti agli algoritmi AI allo scopo di interferire intenzionalmente con il processo decisionale o di generare distorsioni.
  • Iniezioni di prompt: questi attacchi prendono di mira i modelli linguistici di grandi dimensioni (LLM). Gli hacker mascherano gli input dannosi come prompt legittimi, manipolando i sistemi di AI generativa in modo da far trapelare dati sensibili, diffondere disinformazione o peggio. Anche le iniezioni di prompt di base possono far sì che gli AI chatbot come ChatGPT ignorino le protezioni del sistema e dicano cose che non dovrebbero.
  • Interpretabilità del modello: i modelli AI complessi sono spesso difficili da interpretare, il che rende difficile per gli utenti capire come prendono le loro decisioni. Questa mancanza di trasparenza può di fatto ostacolare il rilevamento delle distorsioni e le relative responsabilità, erodendo la fiducia nei sistemi di AI e in chi li realizza.
  • Attacchi alla supply chain: gli attacchi alla supply chain si verificano quando i criminali informatici prendono di mira i sistemi di AI a livello di supply chain, incluse le fasi di sviluppo, implementazione o manutenzione. Ad esempio, gli autori di un attacco possono sfruttare le vulnerabilità presenti nei componenti di terze parti utilizzati nello sviluppo dell'AI, causando violazioni dei dati o accessi non autorizzati.

Rischi operativi

Sebbene i modelli AI possano sembrare magici, sono fondamentalmente il prodotto di sofisticati algoritmi di codice e machine learning. Come tutte le tecnologie, sono suscettibili ai rischi operativi. Se non affrontati, questi rischi possono portare a malfunzionamenti del sistema e a vulnerabilità della sicurezza di cui i criminali informatici possono approfittare.

Alcuni dei rischi operativi più comuni includono:

  • Deriva o decadimento: i modelli AI possono subire una deriva del modello, ovvero un processo in cui le modifiche ai dati o alle relazioni tra i punti dati possono portare a un degrado delle prestazioni. Ad esempio, un modello di rilevamento delle frodi potrebbe diventare meno accurato nel tempo e lasciare che le transazioni fraudolente passino inosservate.
  • Problemi di sostenibilità: i sistemi di AI sono tecnologie nuove e complesse che richiedono un livello adeguato di scalabilità e supporto. Trascurare la sostenibilità può comportare difficoltà nella manutenzione e nell'aggiornamento di questi sistemi, causando prestazioni non uniformi, nonché un aumento dei costi operativi e del consumo di energia.
  • Problemi di integrazione: l'integrazione dei sistemi di AI con l'infrastruttura IT esistente può essere complessa e richiedere molte risorse. Le organizzazioni incontrano spesso problemi a livello di compatibilità, silos di dati e interoperabilità di sistema. L'introduzione di sistemi di AI può anche creare nuove vulnerabilità espandendo la superficie di attacco delle minacce informatiche
  • Mancanza di responsabilità: poiché i sistemi di AI sono tecnologie relativamente nuove, molte organizzazioni non dispongono di strutture di governance aziendale adeguate. Il risultato è che i sistemi di AI spesso mancano di supervisione. McKinsey ha scoperto che solo il 18% delle organizzazioni dispone di un apposito organo o di un consiglio di amministrazione con l'autorità di prendere decisioni sulla governance responsabile dell'AI.

Rischi etici e legali

Se le organizzazioni non danno priorità alla sicurezza e all'etica durante lo sviluppo e l'implementazione dei sistemi di AI, rischiano di commettere delle violazioni della privacy e di generare risultati distorti. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni potrebbero rafforzare gli stereotipi di genere o razziali e creare modelli AI che favoriscono alcuni gruppi demografici rispetto ad altri.

 I rischi etici e legali più comuni includono:

  • Mancanza di trasparenza: le organizzazioni che non sono trasparenti e responsabili con i propri sistemi di AI rischiano di perdere la fiducia del pubblico.
  • Mancato rispetto dei requisiti normativi: il mancato rispetto delle normative governative come il GDPR o di linee guida specifiche del settore può comportare cospicue multe e sanzioni legali.
  • Bias algoritmici: gli algoritmi di AI possono ereditare distorsioni dai dati di addestramento, portando a esiti potenzialmente discriminatori come decisioni di assunzione basate su pregiudizi e accesso non equo ai servizi finanziari.
  • Dilemmi etici: le decisioni basate sull'AI possono introdurre problemi etici legati alla privacy, all'autonomia e ai diritti umani. Una gestione errata di questi dilemmi può danneggiare la reputazione di un'organizzazione ed erodere la fiducia del pubblico.

Framework di gestione del rischio dell'AI

Molte organizzazioni affrontano i rischi dell'AI adottando framework di gestione del rischio dell'AI, ovvero una serie di linee guida e pratiche per la gestione del rischio nell'intero ciclo di vita dell'AI.

Si può pensare a queste linee guida come a playbook che delineano politiche, procedure, ruoli e responsabilità per l'uso dell'AI da parte di un'organizzazione. I framework di gestione del rischio dell'AI aiutano le organizzazioni a sviluppare, implementare e mantenere i sistemi di AI in modo da ridurre al minimo i rischi, rispettare gli standard etici e raggiungere la conformità normativa continua.

Alcuni dei framework di gestione del rischio dell'AI più comuni includono:

  • Il framework di gestione del rischio dell'AI del NIST
  • La Legge sull'IA dell'UE
  • Standard ISO/IEC
  • L'ordine esecutivo degli Stati Uniti sull'AI

Il framework di gestione del rischio AI del NIST (AI RMF)

Nel gennaio 2023, il National Institute of Standards and Technology (NIST) ha pubblicato l'AI Risk Management Framework (AI RMF) per offrire un approccio strutturato alla gestione del rischio dell'AI. Da allora l'NIST AI RMF è diventato un benchmark per la gestione del rischio dell'AI.

L'obiettivo principale dell'AI RMF è quello di aiutare le organizzazioni a progettare, sviluppare, implementare e utilizzare i sistemi di AI in modo da gestirne efficacemente i rischi e promuovere pratiche di AI affidabili e responsabili.

Sviluppato in collaborazione con il settore pubblico e privato, l'AI RMF è totalmente volontario e applicabile in qualsiasi azienda, settore o area geografica.

Il framework è suddiviso in due parti. La parte 1 è costituita da una panoramica dei rischi e delle caratteristiche dei sistemi di AI affidabili. La parte 2, l'AI RMF Core, delinea quattro funzioni per aiutare le organizzazioni ad affrontare i rischi dei sistemi di AI:

  • Governare: creare una cultura organizzativa della gestione del rischio dell'AI
  • Mappare: inquadramento dei rischi dell'AI in contesti aziendali specifici
  • Misurare: analisi e valutazione dei rischi dell'AI
  • Gestire: affrontare i rischi mappati e misurati

eu ai act

La legge sull'intelligenza artificiale dell'UE (Legge sull'IA) è una legge che disciplina lo sviluppo e l'uso dell'AI nell'Unione Europea (UE). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando ai sistemi di AI norme diverse a seconda delle minacce per la salute umana, la sicurezza e i diritti umani. La legge introduce anche regole per la progettazione, l'addestramento e l'implementazione di modelli AI generici, come i foundation model che alimentano ChatGPT e Google Gemini.

Standard ISO/IEC

L'International Organization for Standardization (ISO) e la International Electrotechnical Commission (IEC) hanno sviluppato standard (link esterno a ibm.com) che affrontano vari aspetti della gestione del rischio dell'AI.

Gli standard ISO/IEC sottolineano l'importanza della trasparenza, della responsabilità e delle considerazioni etiche nella gestione del rischio dell'AI. Forniscono inoltre linee guida attuabili per la gestione dei rischi dell'AI durante il suo intero ciclo di vita, dalla progettazione e lo sviluppo, fino all'implementazione e all'utilizzo.

In che modo la gestione del rischio dell'AI aiuta le organizzazioni

Sebbene il processo di gestione del rischio dell'AI vari da un'organizzazione all'altra, le pratiche di gestione del rischio dell'AI possono offrire alcuni benefici fondamentali comuni se implementate con successo.

Maggiore sicurezza

La gestione del rischio dell'AI può migliorare la cybersecurity di un'organizzazione e l'uso della sicurezza basata su AI.

Conducendo valutazioni e audit regolari del rischio, le organizzazioni possono identificare i rischi potenziali e le vulnerabilità lungo tutto il ciclo di vita dell'AI.

A seguito di queste valutazioni, si possono implementare strategie di mitigazione per ridurre o eliminare i rischi identificati. Questo processo potrebbe comportare misure tecniche, come il miglioramento della sicurezza dei dati e della robustezza del modello. Il processo potrebbe anche comportare adeguamenti organizzativi, come lo sviluppo di linee guida etiche e il rafforzamento dei controlli di accesso.

L'adozione di questo approccio più proattivo al rilevamento e alla risposta alle minacce può aiutare le organizzazioni a mitigare i rischi prima che si intensifichino, riducendo la probabilità di violazioni dei dati e il potenziale impatto degli attacchi informatici.

Processo decisionale migliorato

La gestione del rischio dell'AI può anche aiutare a migliorare il processo decisionale complessivo di un'organizzazione.

Utilizzando un mix di analisi qualitative e quantitative, inclusi metodi statistici e opinioni di esperti, le organizzazioni possono ottenere una chiara comprensione dei loro potenziali rischi. Questa visione completa aiuta le organizzazioni a dare priorità alle minacce ad alto rischio e a prendere decisioni più informate sull'implementazione dell'AI, bilanciando il desiderio di innovazione con la necessità di ridurre i rischi.

Conformità normativa

La crescente attenzione globale alla protezione dei dati sensibili ha favorito l'introduzione di importanti requisiti normativi e standard di settore, tra cui il Regolamento generale sulla protezione dei dati (GDPR), il California Consumer Privacy Act (CCPA) e la Legge sull'IA dell'UE.

Il mancato rispetto di queste leggi può comportare pesanti multe e cospicue sanzioni legali. La gestione del rischio dell'AI può aiutare le organizzazioni a raggiungere la conformità e a mantenere una buona reputazione, soprattutto perché le normative sull'AI si evolvono quasi con la stessa rapidità della tecnologia stessa.

Resilienza operativa

La gestione del rischio dell'AI aiuta le organizzazioni a ridurre al minimo le interruzioni e a garantire la continuità aziendale, consentendo loro di affrontare in tempo reale i potenziali rischi legati ai sistemi di AI. La gestione del rischio dell'AI può anche incoraggiare una maggiore responsabilità e sostenibilità a lungo termine, consentendo alle organizzazioni di stabilire pratiche e metodologie di gestione chiare per l'uso dell'AI. 

Maggiore fiducia e trasparenza

La gestione del rischio dell'AI incoraggia un approccio più etico ai sistemi di AI dando priorità alla fiducia e alla trasparenza.

La maggior parte dei processi di gestione del rischio dell'AI coinvolge un'ampia varietà di stakeholder, tra cui dirigenti, sviluppatori di AI, data scientist, utenti, responsabili politici e persino esperti di etica. Questo approccio inclusivo aiuta a garantire che i sistemi di AI siano sviluppati e utilizzati in modo responsabile, tenendo conto di tutti gli stakeholder. 

Test, convalida e monitoraggio continui

Conducendo test e processi di monitoraggio regolari, le organizzazioni possono controllare meglio le prestazioni di un sistema di AI e rilevare prima le minacce emergenti. Questo monitoraggio aiuta le organizzazioni a mantenere costantemente la conformità normativa e a porre rimedio in anticipo ai rischi legati all'AI, riducendo il potenziale impatto delle minacce. 

Rendere la gestione del rischio dell'AI una priorità aziendale

Nonostante il loro potenziale per semplificare e ottimizzare il modo in cui il lavoro viene svolto, le tecnologie di AI non sono prive di rischi. Quasi ogni componente IT aziendale può trasformarsi in un'arma nelle mani sbagliate.

Le organizzazioni non devono evitare l'AI generativa, bensì devono semplicemente trattarla come qualsiasi altro strumento tecnologico. Ciò significa comprenderne i rischi e adottare misure proattive per ridurre al minimo le possibilità di successo dell'attacco.

Con IBM watsonx.governance, le organizzazioni possono facilmente dirigere, gestire e monitorare le attività basate sull'AI. IBM watsonx.governance può governare i modelli AI generativi di qualsiasi fornitore, valutare lo stato di salute e l'accuratezza dei modelli e automatizzare i workflow di conformità

.
 

Autore