La sicurezza dell'AI si riferisce a pratiche e principi che aiutano a garantire che le tecnologie di AI siano progettate e utilizzate a beneficio dell'umanità e per ridurre al minimo qualsiasi potenziale danno o risultato negativo.
Costruire sistemi di intelligenza artificiale (AI) sicuri è una considerazione critica per le aziende e la società, a causa della crescente diffusione e dell'impatto dell'AI. La sicurezza dell'AI aiuta a garantire che i sistemi di AI siano utilizzati nel modo più responsabile possibile e che il futuro dell'AI sia sviluppato tenendo conto dei valori umani.
Lo sviluppo e il mantenimento di un'AI sicura implica l'identificazione dei suoi potenziali rischi (come bias, sicurezza dei dati e vulnerabilità alle minacce esterne), così come la creazione di processi per evitare e mitigare tali rischi. Ad esempio, le misure di sicurezza dell'AI come mitigazione dei bias, test di robustezza e framework per l'etica dell'AI possono aiutare le aziende a sviluppare e utilizzare gli strumenti di AI in modo responsabile all'interno delle organizzazioni.
Via via che i sistemi di AI diventano sempre più sofisticati, si integrano più profondamente nella vita delle persone e in aree critiche del mondo reale, come infrastrutture, finanza e sicurezza nazionale. Queste tecnologie possono avere impatti positivi e negativi sulle organizzazioni che le utilizzano e sulla società nel suo complesso.
I timori per gli impatti negativi dell'AI sono in aumento. Un sondaggio del 2023 ha rilevato che il 52% degli americani era più preoccupato che entusiasta circa l'uso sempre maggiore dell'AI.1 Un altro sondaggio ha rilevato che l'83% teme che l'AI possa portare accidentalmente a un evento catastrofico.2
Altre ricerche dimostrano che i timori non sono infondati: un rapporto del 2024 ha rilevato che il 44% degli intervistati ha dichiarato che la propria organizzazione abbia subito conseguenze negative (come problemi di inesattezza o cybersecurity) dall'uso dell'AI.3 Gli sforzi in materia di sicurezza sono spesso considerati un aspetto secondario: secondo 2023 Impact Report del Center for AI Safety, solo il 3% della ricerca tecnica è finalizzato a rendere l'AI più sicura.4
Per la società nel suo complesso, le misure di sicurezza dell'AI sono necessarie per proteggere la sicurezza pubblica, la vita privata e i diritti fondamentali. I sistemi di AI tendenziosi, poco chiari o non in linea con i valori umani possono perpetuare o amplificare le disuguaglianze sociali.
Gli esperti temono inoltre che alcuni sistemi di AI avanzati possano diventare intelligenti quanto gli umani o addirittura di più. L'intelligenza artificiale generale (AGI) si riferisce a potenziali sistemi di AI che comprendono, apprendono ed eseguono attività di pensiero allo stesso modo degli esseri umani. La superintelligenza artificiale (ASI) si riferisce a ipotetici sistemi di AI con una portata intellettuale e funzioni cognitive più avanzate rispetto a qualsiasi essere umano. Lo sviluppo di AGI e ASI introduce timori legati al fatto che tali sistemi sarebbero pericolosi se non allineati con i valori umani o soggetti alla supervisione umana. Secondo i critici, se dotati di troppa autonomia, questi sistemi rappresenterebbero una minaccia esistenziale per l'umanità.
Dal punto di vista aziendale, un'AI sicura aiuta a generare fiducia nei consumatori, a proteggersi dalle responsabilità legali e ad evitare decisioni sbagliate. Le organizzazioni che adottano misure per garantire che l'uso dell'AI sia in linea con i propri valori possono evitare conseguenze negative per sé e per i propri clienti.
I rischi legati all'AI possono essere classificati in diversi tipi, ognuno dei quali richiede misure di sicurezza e sforzi di gestione del rischio diversi.
I sistemi di AI possono perpetuare o amplificare i pregiudizi sociali. Il bias algoritmico si verifica quando l'AI viene addestrata su dati e input incompleti o fuorvianti. Ciò può portare a decisioni ingiuste. Ad esempio, uno strumento di AI addestrato su dati discriminatori potrebbe avere meno probabilità di approvare mutui per i richiedenti con una determinata provenienza o potrebbe essere più propenso a raccomandare l'assunzione di un candidato di sesso maschile rispetto a una donna.
I sistemi di intelligenza artificiale potrebbero accedere in modo improprio ai dati personali ed esporli o utilizzarli in modo non corretto, introducendo problemi di privacy. In caso di violazione dei dati sensibili, i creatori o gli utenti di un sistema di AI potrebbero essere ritenuti responsabili.
I risultati dei sistemi di AI avanzati, in particolare quelli creati per funzionare come agenti autonomi, possono essere imprevedibili. Le loro azioni potrebbero anche essere dannose. Se fossero in grado di decidere autonomamente, potrebbe essere difficile fermarli. Senza un elemento di controllo umano, potrebbe essere impossibile intervenire o chiudere un sistema di AI che agisca in modo improprio.
AGI, ASI e altri sistemi di AI altamente avanzati potrebbero potenzialmente agire in modo tale da mettere in pericolo l'umanità o sconvolgere i sistemi globali se gestiti male. I pericoli di una corsa all'AI, in modo simile a una corsa agli armamenti, mettono a rischio la stabilità geopolitica.
L'AI potrebbe anche essere utilizzata in modo improprio per manipolazioni sociali su larga scala o per una guerra informatica. Nel 2023, l'organizzazione non profit Center for AI Safety (CAIS) ha rilasciato una dichiarazione costituita da una sola frase e appoggiata da vari ricercatori e leader nel campo dell'AI. Si legge: "Mitigare il rischio di estinzione da parte dell'AI dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare".5
Sebbene le conseguenze e gli errori indesiderati e imprevisti rappresentino una fonte di rischio per l'AI, è vero che i malintenzionati potrebbero utilizzare questa tecnologia per causare intenzionalmente danni. L'AI può essere utilizzata come arma per attacchi informatici, campagne di disinformazione, sorveglianza illegale o persino danni fisici. Queste minacce esistono a livello individuale e sociale.
I sistemi di AI possono essere vulnerabili ai problemi di sicurezza. Affrontano la possibilità di attacchi in cui soggetti malintenzionati manipolano gli input di dati per ingannare i modelli, generando output errati.
Ad esempio, gli AI jailbreak si verificano quando gli hacker iniettano prompt e altre tecniche per utilizzare le vulnerabilità dei sistemi di AI ed eseguire azioni limitate. Il data poisoning, o avvelenamento dei dati, si verifica quando dati di addestramento compromessi deviano il comportamento dell'AI. L'accesso non autorizzato e altre vulnerabilità o rischi per la sicurezza potrebbero portare a un uso improprio dei sistemi di AI e dei relativi dati.
La sicurezza dell'AI e la protezione dell'AI sono aspetti correlati ma distinti dell'intelligenza artificiale. La sicurezza dell'AI è finalizzata ad affrontare i problemi intrinseci e le conseguenze indesiderate, mentre la protezione dell'AI si concentra sulla protezione dei sistemi di AI dalle minacce esterne.
La sicurezza dell'AI cerca di collegare l'AI ai valori umani e di ridurre la possibilità che i sistemi di AI abbiano un impatto negativo sulle aziende e sulla società. Mette in risalto l'allineamento dell'AI, ovvero il processo di codifica dei valori e degli obiettivi umani nei modelli AI.
La protezione dell'AI consiste nel proteggere i sistemi di AI da minacce esterne come attacchi informatici e violazioni dei dati. Implica la salvaguardia della riservatezza e dell'integrità dei modelli AI. La protezione dell'AI può riferirsi anche all'utilizzo dell'AI per rafforzare il livello di sicurezza di un'organizzazione. In base a questa definizione, include l'uso dell'AI e del machine learning (ML) per prevedere e affrontare potenziali minacce.
I leader e le aziende operanti nel campo dell'AI stanno implementando varie pratiche per supportare lo sviluppo e l'uso responsabili delle tecnologie di AI. Le misure di sicurezza per l'AI includono:
Gli algoritmi possono perpetuare o amplificare i pregiudizi presenti nei dati su cui vengono addestrati. Per contrastare questo problema, le aziende stanno investendo in iniziative volte ad affrontare i bias algoritmici. Tecniche come la raccolta di diversi set di dati, le valutazioni algoritmiche dell'equità e i metodi di debiasing aiutano a identificare potenziali problemi.
Processi di test e convalida rigorosi aiutano i sistemi di AI a resistere ai pericoli e possono identificare i rischi tecnici. Tecniche come test antagonistici, stress test e la verifica formale aiutano a garantire che gli strumenti e i modelli di AI funzionino come previsto e non presentino comportamenti indesiderati.
Molti modelli AI, in particolare i modelli linguistici di grandi dimensioni (LLM), sono "black box" che prendono decisioni difficili da interpretare per gli esseri umani. Senza trasparenza nel processo decisionale è meno probabile che gli utenti si fidino dei risultati e delle raccomandazioni. L'AI spiegabile (XAI) punta a chiarire i processi poco chiari alla base dei sistemi di AI complessi, concentrandosi sull'interpretabilità per mostrare come siano arrivati ai propri risultati.
Molte organizzazioni dispongono di framework di AI etica per guidare lo sviluppo e l'uso dei sistemi di AI. Questi framework e i relativi benchmark includono in genere principi come trasparenza, equità, responsabilità e privacy. Forniscono barriere per l'uso e lo sviluppo di strumenti di AI.
Sebbene l'automazione faccia parte del fascino dell'AI per molte aziende, mantenere il controllo umano è importante per motivi di sicurezza. Ciò significa che gli operatori umani devono monitorare le prestazioni del sistema di AI, intervenendo quando necessario e prendendo le decisioni finali in situazioni critiche. Gli approcci Human-in-the-Loop aiutano a garantire che una persona reale sia responsabile delle azioni di un sistema di AI.
L'implementazione di solide misure di sicurezza come crittografia, controllo degli accessi e rilevamento delle anomalie aiuta a proteggere i sistemi di AI dagli usi impropri o dagli accessi non autorizzati. Le aziende possono anche investire in misure di cybersecurity per proteggersi da minacce e attacchi informatici che potrebbero compromettere l'integrità dei sistemi di AI.
La sicurezza dell'AI è un campo complesso e in evoluzione che richiede la collaborazione tra ricercatori, leader di settore e policy maker. Molte aziende partecipano a consorzi di settore, iniziative di ricerca e attività di standardizzazione per condividere conoscenze, best practice e lezioni apprese. Lavorando insieme, la comunità dell'AI può sviluppare misure di sicurezza più solide e affidabili.
La ricerca sulla sicurezza dell'AI è uno sforzo condiviso da molti stakeholders.
La sicurezza dell'AI parte dagli sviluppatori e dagli ingegneri responsabili della progettazione, della realizzazione e del collaudo dei sistemi di AI. Potrebbero concentrarsi su questioni fondamentali, come ad esempio l'allineamento degli obiettivi dell'AI con i valori umani e la creazione di modelli che siano trasparenti e spiegabili. Sono anche responsabili di testare e convalidare i modelli e gli strumenti per garantire che funzionino come previsto.
Le aziende leader nello sviluppo dell'AI, tra cui IBM, OpenAI, Google DeepMind, Microsoft, Anthropic e altre, sono in prima linea nelle attività finalizzate alla sicurezza dell'AI. Investono in team dedicati alla sicurezza dell'AI, stabiliscono linee guida etiche e aderiscono ai principi di un'AI responsabile per prevenire esiti dannosi.
Alcune aziende hanno anche creato framework e protocolli per affrontare i rischi sia nella fase di ricerca che nella fase di implementazione, come gli strumenti di rilevamento che prevedono la supervisione umana. Molti collaborano anche in coalizioni di settore, condividendo le conoscenze per definire standard di settore per la sicurezza dell'AI.
Gli sforzi più ampi di governance dell'AI sono una parte fondamentale delle misure globali di sicurezza dell'AI. Organizzazioni internazionali, tra cui le Nazioni Unite, il World Economic Forum e l'Organizzazione per la cooperazione e lo sviluppo economico (OECD), guidano iniziative orientate all'etica e alla sicurezza dell'AI. I governi di tutto il mondo stanno anche creando norme e regolamenti sulla sicurezza dell'AI:
Negli Stati Uniti, l'Artificial Intelligence Safety Institute (AISI), parte del National Institute of Standards and Technology (NIST), lavora per affrontare i problemi di sicurezza. I suoi sforzi si concentrano su priorità quali l'avanzamento della ricerca e lo sviluppo di misure di riduzione dei rischi.
Nell'Unione Europea, la legge UE sull'AI include vari standard e linee guida di sicurezza, nonché sanzioni in caso di non conformità. Separatamente, il Regno Unito ha creato l'AI Safety Institute per promuovere lo sviluppo sicuro dell'AI. Diversi altri paesi, tra cui Singapore, Giappone e Canada, stanno anche creando enti per la sicurezza dell'AI, al fine di condurre ricerche e informare lo sviluppo e la regolamentazione con particolare attenzione alla sicurezza pubblica.
Policy maker, ricercatori di organizzazioni non governative (ONG), think tank e altri gruppi lavorano per affrontare le problematiche relative alla sicurezza. Prendono in considerazione questioni di sicurezza nazionale, diritti umani e politiche legislative e raccomandano modi in cui lo sviluppo dell'AI si possa allineare ai valori e agli interessi sociali. Elevano la consapevolezza dei rischi, stabiliscono linee guida etiche, promuovono la trasparenza e incoraggiano la ricerca responsabile.
Alcuni gruppi chiave senza scopo di lucro per la sicurezza dell'AI includono:
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.
Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
1 Growing public concern about the role of artificial intelligence in daily life, Pew Research Center, agosto 2023.
2 Poll Shows Overwhelming Concern About Risks From AI, AI Policy Institute (AIPI), luglio 2023.
3 The state of AI in early 2024, McKinsey, maggio 2024.
4 2023 Impact Report, Center for AI Safety, novembre 2023.
5 Statement on AI Risk, Center for AI Safety, marzo 2023.