Best practice per proteggere le implementazioni di AI

due persone che lavorano davanti ai computer con la codifica

Man mano che le organizzazioni abbracciano l'AI generativa, si aspettano una serie di benefici da questi progetti: dall'aumento dell'efficienza e della produttività alla maggiore velocità di business, fino alla maggiore innovazione di prodotti e servizi. Tuttavia, un fattore che costituisce una parte critica di questa innovazione AI è la fiducia. AI affidabile si basa sulla comprensione di come funziona l'AI e di come prende decisioni.

Secondo un sondaggio tra i vertici aziendali dell'IBM Institute for Business Value, l'82% dei rispondenti afferma che un'AI affidabile e sicura è fondamentale per il successo della propria azienda, eppure solo il 24% dei progetti attuali di AI generativa viene protetto. Ciò crea un divario impressionante nella protezione dei progetti di AI noti. Se a questo si aggiunge la 'Shadow AI' presente all'interno delle organizzazioni, il divario di sicurezza per l'AI diventa ancora più grande.

Il tuo team sarebbe in grado di rilevare in tempo il prossimo zero-day?

Unisciti ai leader della sicurezza che si affidano alla newsletter Think per ricevere notizie selezionate su AI, cybersecurity, dati e automazione. Impara velocemente da tutorial e articoli informativi consegnati direttamente nella tua casella di posta. Leggi l'Informativa sulla privacy IBM.

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'informativa sulla privacy IBM.

https://www.ibm.com/it-it/privacy

Sfide per la sicurezza dell'implementazione dell'AI

Le organizzazioni hanno un'intera nuova pipeline di progetti in fase di realizzazione che utilizza l'AI generativa. Durante la fase di raccolta e gestione dei dati, è necessario raccogliere enormi volumi di dati per alimentare il modello e fornire l'accesso a diverse persone, tra cui data scientist, ingegneri, sviluppatori e altri. Ciò presenta intrinsecamente un rischio, poiché centralizza tutti i dati in un unico luogo e consente a molte persone di accedervi. Questo significa che l'AI generativa è un nuovo tipo di storage dei dati che può creare nuovi dati basandosi su dati organizzativi esistenti. Che tu abbia addestrato il modello, lo abbia affinato o lo abbia collegato a un RAG (Vector DB), quei dati probabilmente contengono informazioni personali (PII), preoccupazioni sulla privacy e altre informazioni sensibili. Questa montagna di dati sensibili è un bersaglio rosso lampeggiante a cui gli aggressori cercheranno di accedere.

Nell'ambito dello sviluppo dei modelli, vengono create nuove applicazioni in un modo completamente nuovo con nuove vulnerabilità che diventano nuovi punti di ingresso che gli aggressori cercheranno di utilizzare. Lo sviluppo spesso inizia con i team di data science che scaricano e riutilizzano modelli di machine learning open-source pre-addestrati da archivi di modelli online come HuggingFace o TensorFlow Hub. Gli archivi open-source di condivisione di modelli open source sono nati dalla complessità intrinseca della data science, dalla carenza di professionisti e dal valore che offrono alle organizzazioni riducendo drasticamente il tempo e gli sforzi necessari per l'adozione dell'AI generativa. Tuttavia, tali archivi Tuttavia, tali repository possono non disporre di controlli di sicurezza completi, il che in ultima analisi trasferisce il rischio all'azienda, cosa su cui gli aggressori contano. Essi possono iniettare una backdoor o un malware in uno di questi modelli e caricare nuovamente il modello infetto negli archivi di condivisione dei modelli, colpendo chiunque lo scarichi. La generale carenza di sicurezza in relazione ai modelli di apprendimento automatico (ML), unita ai dati sempre più sensibili a cui i modelli di ML sono esposti, significa che gli attacchi rivolti a questi modelli hanno un elevato potenziale di danno.

E durante l'inferenza e l'uso in tempo reale, gli aggressori possono manipolare i prompt per eseguire il jailbreak delle protezioni e indurre i modelli a comportarsi in modo errato generando risposte non consentite a prompt dannosi, incluse informazioni distorte, false e altre informazioni tossiche, causando danni alla reputazione. In alternativa, gli aggressori possono manipolare il modello e analizzare le coppie di input-output per addestrare un modello surrogato che imiti il comportamento del modello bersaglio, "rubandone" di fatto le funzionalità e facendo perdere all'impresa il suo vantaggio competitivo.

Passaggi critici per proteggere l'AI

Diverse organizzazioni stanno adottando approcci differenti per proteggere l'AI man mano che gli standard e i framework per la sicurezza dell'AI si evolvono. Il framework di IBM per la sicurezza dell'AI si basa sulla protezione dei principi chiave di un'implementazione AI, ovvero proteggere i dati, il modello e gli utilizzi. Inoltre, è necessario mettere in sicurezza l'infrastruttura su cui vengono costruiti e gestiti i modelli AI. Inoltre, bisogna stabilire una governance dell'AI e monitorare l'equità, la parzialità e la deriva nel tempo, il tutto in modo continuo per tenere traccia di qualsiasi cambiamento o deriva del modello.

  • Protezione dei dati: le organizzazioni dovranno centralizzare e raccogliere enormi quantità di dati per sfruttare al meglio la gen AI e massimizzarne il valore. Ogni volta che inizi a combinare e centralizzare i propri beni più preziosi in un unico posto, ti esponi a rischi significativi, quindi devi avere un piano di sicurezza dei dati per identificare e proteggere i dati sensibili.
  • Protezione del modello: molte organizzazioni scaricano modelli da open source per accelerare gli sforzi di sviluppo. I data scientist scaricano questi modelli black box senza avere alcuna visibilità sul loro funzionamento. Gli aggressori hanno lo stesso accesso a questi archivi di modelli online e possono implementare una backdoor o un malware in uno di questi modelli e caricarlo nuovamente nell'archivio come punto di ingresso per chiunque scarichi il modello infetto. È necessario comprendere le vulnerabilità e le configurazioni errate nell'implementazione.
  • Proteggere l'utilizzo: le organizzazioni devono garantire un utilizzo sicuro dell'implementazione dell'AI. Gli attori delle minacce potrebbero eseguire un'un'iniezione di prompt dove utilizzano prompt dannosi per effettuare il jailbreak dei modelli, ottenere accessi ingiustificati, rubare dati sensibili o introdurre bias negli output. Gli aggressori possono anche creare input per raccogliere output del modello, accumulando un ampio set di dati di coppie input-output per addestrare un modello surrogato in modo che imiti il comportamento del modello di destinazione, "rubandone" di fatto le funzionalità. È necessario comprendere l'utilizzo del modello e mapparlo con framework di valutazione per garantire un utilizzo sicuro.

E tutto questo deve essere fatto mantenendo la conformità normativa.

Presentazione di IBM Guardium AI Security

Mentre le organizzazioni si confrontano con le minacce esistenti e con il crescente costo delle violazioni dei dati, la protezione dell'AI sarà un'iniziativa importante, per la quale molte organizzazioni avranno bisogno di supporto. Per aiutare le organizzazioni a utilizzare l'AI in modo sicuro e affidabile, IBM ha lanciato IBM Guardium AI Security. Basandosi su decenni di esperienza nella sicurezza dei dati con IBM Guardium, questa nuova offerta consente alle organizzazioni di proteggere la loro implementazione dell'AI.

Esso permette di gestire il rischio di sicurezza e le vulnerabilità dei dati sensibili e dei modelli AI. Aiuta a identificare e risolvere le vulnerabilità nei modelli AI e a proteggere i dati sensibili. Monitora costantemente eventuali configurazioni errate dell'AI, rileva le fughe di dati e ottimizza il controllo degli accessi, con un leader affidabile nella sicurezza dei dati.

Parte di questa nuova offerta è IBM Guardium Data Security Center, che consente ai team responsabili della sicurezza e dell'AI di collaborare all'interno dell'organizzazione attraverso workflow integrati, una visione comune degli asset di dati e politiche di conformità centralizzate.

La sicurezza dell'AI è un viaggio e richiede la collaborazione tra team interfunzionali, team di sicurezza, team di rischio e conformità e team di IA, e le organizzazioni devono lavorare attraverso un approccio programmatico per proteggere la loro implementazione dell'AI.

Scopri come Guardium AI Security può aiutare la tua organizzazione e iscriviti al nostro webinar per maggiori informazioni.

Soluzioni correlate
Soluzioni di sicurezza aziendale

Trasforma il tuo programma di sicurezza con le soluzioni offerte dal più grande provider di sicurezza aziendale.

Esplora le soluzioni di cybersecurity
Servizi di cybersecurity

Trasforma il tuo business e gestisci i rischi con la consulenza sulla cybersecurity, il cloud e i servizi di sicurezza gestiti.

    Scopri i servizi di sicurezza informatica
    Cybersecurity dell'intelligenza artificiale (AI)

    Migliora la velocità, l'accuratezza e la produttività dei team di sicurezza con soluzioni di cybersecurity basate sull'AI.

    Esplora la cybersecurity dell'AI
    Fai il passo successivo

    Che tu abbia bisogno di soluzioni di sicurezza dei dati, di gestione degli endpoint, o di gestione delle identità e degli accessi (IAM), i nostri esperti sono pronti a collaborare con te per farti raggiungere un solido livello di sicurezza.Trasforma il tuo business e gestisci i rischi con un leader a livello globale nel campo della consulenza per la cybersecurity, del cloud e dei servizi di sicurezza gestiti.

    Esplora le soluzioni di cybersecurity Scopri i servizi di cybersecurity