La gestione del rischio dell'AI è il processo di individuazione, riduzione e gestione sistematica dei potenziali rischi associati alle tecnologie di AI. Implica una combinazione di strumenti, pratiche e principi, con un'enfasi particolare sull'implementazione di framework formali di gestione del rischio dell'AI.
In generale, l'obiettivo della gestione del rischio dell'AI è quello di ridurre al minimo i potenziali impatti negativi dell'AI, aumentandone al massimo i benefici.
La gestione del rischio dell'AI fa parte del campo più ampio della governance dell'AI. La governance dell'AI si riferisce alle protezioni che garantiscono che gli strumenti e i sistemi di AI siano sicuri ed etici e che rimangano tali.
La governance dell'AI è una disciplina completa, mentre la gestione del rischio dell'AI è un processo all'interno di tale disciplina. La gestione del rischio dell'AI si concentra in particolare sull'identificazione e sulla risoluzione delle vulnerabilità e delle minacce per mantenere i sistemi di AI al sicuro dai danni. La governance dell'AI stabilisce i framework, le regole e gli standard che indirizzano la ricerca, lo sviluppo e l'applicazione dell'AI per garantire sicurezza, equità e rispetto dei diritti umani.
Negli ultimi anni, l'uso di sistemi di AI è aumentato in tutti i settori. McKinsey segnala che il 72% delle organizzazioni utilizza attualmente una qualche forma di intelligenza artificiale (AI), con un aumento del 17% rispetto al 2023.
Sebbene le organizzazioni inseguano i benefici dell'AI, come innovazione, efficienza e aumento della produttività, non sempre ne affrontano i potenziali rischi, come problemi di privacy, minacce alla sicurezza e questioni etiche e legali.
I leader sono ben consapevoli di questa sfida. Un recente studio dell'IBM Institute for Business Value (IBM IBV) ha rilevato che il 96% dei leader ritiene che l'adozione dell'AI generativa renda più probabile una violazione di sicurezza. Allo stesso tempo, l'IBM Institute for Business Value ha anche rilevato che solo il 24% degli attuali progetti di AI generativa è protetto.
La gestione del rischio dell'AI può aiutare a colmare questa lacuna, consentendo alle organizzazioni di usufruire appieno del potenziale dei sistemi di AI senza comprometterne l'etica o la sicurezza.
Come per altri tipi di rischi per la sicurezza, anche i rischi legati all'AI possono essere intesi come una misura della probabilità che una potenziale minaccia legata all'AI si ripercuota su un'organizzazione, così come dell'entità del danno che tale minaccia arrecherebbe.
Sebbene ogni modello AI e ogni caso d'uso siano differenti, i rischi dell'AI si dividono generalmente in quattro categorie:
Se non gestiti correttamente, questi rischi possono esporre le organizzazioni e sistemi di AI a danni significativi, tra cui perdite finanziarie, danni alla reputazione, sanzioni normative, calo della fiducia pubblica e violazioni dei dati.
I sistemi di AI si basano su set di dati che potrebbero essere vulnerabili a manomissioni, violazioni, pregiudizi o attacchi informatici. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità, la sicurezza e la disponibilità dei dati durante l'intero ciclo di vita dell'AI, dallo sviluppo, all'addestramento e all'implementazione.
I rischi più comuni legati ai dati includono:
I criminali informatici possono prendere di mira i modelli AI a scopo di furto, reverse engineering o manipolazioni non autorizzate. Gli autori di un attacco possono compromettere l'integrità di un modello manomettendone l'architettura, i pesi o i parametri, ovvero i componenti principali che determinano il comportamento e le prestazioni di un modello AI.
Alcuni dei rischi più comuni legati ai modelli includono:
Sebbene i modelli AI possano sembrare magici, sono fondamentalmente il prodotto di sofisticati algoritmi di codice e machine learning. Come tutte le tecnologie, sono suscettibili ai rischi operativi. Se non affrontati, questi rischi possono portare a malfunzionamenti del sistema e a vulnerabilità della sicurezza di cui i criminali informatici possono approfittare.
Alcuni dei rischi operativi più comuni includono:
Se le organizzazioni non danno priorità alla sicurezza e all'etica durante lo sviluppo e l'implementazione dei sistemi di AI, rischiano di commettere delle violazioni della privacy e di generare risultati distorti. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni potrebbero rafforzare gli stereotipi di genere o razziali e creare modelli AI che favoriscono alcuni gruppi demografici rispetto ad altri.
I rischi etici e legali più comuni includono:
Molte organizzazioni affrontano i rischi dell'AI adottando framework di gestione del rischio dell'AI, ovvero una serie di linee guida e pratiche per la gestione del rischio nell'intero ciclo di vita dell'AI.
Si può pensare a queste linee guida come a playbook che delineano politiche, procedure, ruoli e responsabilità per l'uso dell'AI da parte di un'organizzazione. I framework di gestione del rischio dell'AI aiutano le organizzazioni a sviluppare, implementare e mantenere i sistemi di AI in modo da ridurre al minimo i rischi, rispettare gli standard etici e raggiungere la conformità normativa continua.
Alcuni dei framework di gestione del rischio dell'AI più comuni includono:
Nel gennaio 2023, il National Institute of Standards and Technology (NIST) ha pubblicato l'AI Risk Management Framework (AI RMF) per offrire un approccio strutturato alla gestione del rischio dell'AI. Da allora l'NIST AI RMF è diventato un benchmark per la gestione del rischio dell'AI.
L'obiettivo principale dell'AI RMF è quello di aiutare le organizzazioni a progettare, sviluppare, implementare e utilizzare i sistemi di AI in modo da gestirne efficacemente i rischi e promuovere pratiche di AI affidabili e responsabili.
Sviluppato in collaborazione con il settore pubblico e privato, l'AI RMF è totalmente volontario e applicabile in qualsiasi azienda, settore o area geografica.
Il framework è suddiviso in due parti. La parte 1 è costituita da una panoramica dei rischi e delle caratteristiche dei sistemi di AI affidabili. La parte 2, l'AI RMF Core, delinea quattro funzioni per aiutare le organizzazioni ad affrontare i rischi dei sistemi di AI:
La legge sull'intelligenza artificiale dell'UE (Legge sull'IA) è una legge che disciplina lo sviluppo e l'uso dell'AI nell'Unione Europea (UE). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando ai sistemi di AI norme diverse a seconda delle minacce per la salute umana, la sicurezza e i diritti umani. La legge introduce anche regole per la progettazione, l'addestramento e l'implementazione di modelli AI generici, come i foundation model che alimentano ChatGPT e Google Gemini.
L'International Organization for Standardization (ISO) e la International Electrotechnical Commission (IEC) hanno sviluppato standard (link esterno a ibm.com) che affrontano vari aspetti della gestione del rischio dell'AI.
Gli standard ISO/IEC sottolineano l'importanza della trasparenza, della responsabilità e delle considerazioni etiche nella gestione del rischio dell'AI. Forniscono inoltre linee guida attuabili per la gestione dei rischi dell'AI durante il suo intero ciclo di vita, dalla progettazione e lo sviluppo, fino all'implementazione e all'utilizzo.
Sebbene il processo di gestione del rischio dell'AI vari da un'organizzazione all'altra, le pratiche di gestione del rischio dell'AI possono offrire alcuni benefici fondamentali comuni se implementate con successo.
La gestione del rischio dell'AI può migliorare la cybersecurity di un'organizzazione e l'uso della sicurezza basata su AI.
Conducendo valutazioni e audit regolari del rischio, le organizzazioni possono identificare i rischi potenziali e le vulnerabilità lungo tutto il ciclo di vita dell'AI.
A seguito di queste valutazioni, si possono implementare strategie di mitigazione per ridurre o eliminare i rischi identificati. Questo processo potrebbe comportare misure tecniche, come il miglioramento della sicurezza dei dati e della robustezza del modello. Il processo potrebbe anche comportare adeguamenti organizzativi, come lo sviluppo di linee guida etiche e il rafforzamento dei controlli di accesso.
L'adozione di questo approccio più proattivo al rilevamento e alla risposta alle minacce può aiutare le organizzazioni a mitigare i rischi prima che si intensifichino, riducendo la probabilità di violazioni dei dati e il potenziale impatto degli attacchi informatici.
La gestione del rischio dell'AI può anche aiutare a migliorare il processo decisionale complessivo di un'organizzazione.
Utilizzando un mix di analisi qualitative e quantitative, inclusi metodi statistici e opinioni di esperti, le organizzazioni possono ottenere una chiara comprensione dei loro potenziali rischi. Questa visione completa aiuta le organizzazioni a dare priorità alle minacce ad alto rischio e a prendere decisioni più informate sull'implementazione dell'AI, bilanciando il desiderio di innovazione con la necessità di ridurre i rischi.
La crescente attenzione globale alla protezione dei dati sensibili ha favorito l'introduzione di importanti requisiti normativi e standard di settore, tra cui il Regolamento generale sulla protezione dei dati (GDPR), il California Consumer Privacy Act (CCPA) e la Legge sull'IA dell'UE.
Il mancato rispetto di queste leggi può comportare pesanti multe e cospicue sanzioni legali. La gestione del rischio dell'AI può aiutare le organizzazioni a raggiungere la conformità e a mantenere una buona reputazione, soprattutto perché le normative sull'AI si evolvono quasi con la stessa rapidità della tecnologia stessa.
La gestione del rischio dell'AI aiuta le organizzazioni a ridurre al minimo le interruzioni e a garantire la continuità aziendale, consentendo loro di affrontare in tempo reale i potenziali rischi legati ai sistemi di AI. La gestione del rischio dell'AI può anche incoraggiare una maggiore responsabilità e sostenibilità a lungo termine, consentendo alle organizzazioni di stabilire pratiche e metodologie di gestione chiare per l'uso dell'AI.
La gestione del rischio dell'AI incoraggia un approccio più etico ai sistemi di AI dando priorità alla fiducia e alla trasparenza.
La maggior parte dei processi di gestione del rischio dell'AI coinvolge un'ampia varietà di stakeholder, tra cui dirigenti, sviluppatori di AI, data scientist, utenti, responsabili politici e persino esperti di etica. Questo approccio inclusivo aiuta a garantire che i sistemi di AI siano sviluppati e utilizzati in modo responsabile, tenendo conto di tutti gli stakeholder.
Conducendo test e processi di monitoraggio regolari, le organizzazioni possono controllare meglio le prestazioni di un sistema di AI e rilevare prima le minacce emergenti. Questo monitoraggio aiuta le organizzazioni a mantenere costantemente la conformità normativa e a porre rimedio in anticipo ai rischi legati all'AI, riducendo il potenziale impatto delle minacce.
Nonostante il loro potenziale per semplificare e ottimizzare il modo in cui il lavoro viene svolto, le tecnologie di AI non sono prive di rischi. Quasi ogni componente IT aziendale può trasformarsi in un'arma nelle mani sbagliate.
Le organizzazioni non devono evitare l'AI generativa, bensì devono semplicemente trattarla come qualsiasi altro strumento tecnologico. Ciò significa comprenderne i rischi e adottare misure proattive per ridurre al minimo le possibilità di successo dell'attacco.
Con IBM watsonx.governance, le organizzazioni possono facilmente dirigere, gestire e monitorare le attività basate sull'AI. IBM watsonx.governance può governare i modelli AI generativi di qualsiasi fornitore, valutare lo stato di salute e l'accuratezza dei modelli e automatizzare i workflow di conformità
.IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io