Man mano che le organizzazioni abbracciano l'AI generativa, si aspettano una serie di benefici da questi progetti: dall'aumento dell'efficienza e della produttività alla maggiore velocità di business, fino alla maggiore innovazione di prodotti e servizi. Tuttavia, un fattore che costituisce una parte critica di questa innovazione AI è la fiducia. AI affidabile si basa sulla comprensione di come funziona l'AI e di come prende decisioni.
Secondo un sondaggio tra i vertici aziendali dell'IBM Institute for Business Value, l'82% dei rispondenti afferma che un'AI affidabile e sicura è fondamentale per il successo della propria azienda, eppure solo il 24% dei progetti attuali di AI generativa viene protetto. Ciò crea un divario impressionante nella protezione dei progetti di AI noti. Se a questo si aggiunge la 'Shadow AI' presente all'interno delle organizzazioni, il divario di sicurezza per l'AI diventa ancora più grande.
Newsletter Think
Unisciti ai leader della sicurezza che si affidano alla newsletter Think per ricevere notizie selezionate su AI, cybersecurity, dati e automazione. Impara velocemente da tutorial e articoli informativi consegnati direttamente nella tua casella di posta. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'informativa sulla privacy IBM.
Le organizzazioni hanno un'intera nuova pipeline di progetti in fase di realizzazione che utilizza l'AI generativa. Durante la fase di raccolta e gestione dei dati, è necessario raccogliere enormi volumi di dati per alimentare il modello e fornire l'accesso a diverse persone, tra cui data scientist, ingegneri, sviluppatori e altri. Ciò presenta intrinsecamente un rischio, poiché centralizza tutti i dati in un unico luogo e consente a molte persone di accedervi. Questo significa che l'AI generativa è un nuovo tipo di storage dei dati che può creare nuovi dati basandosi su dati organizzativi esistenti. Che tu abbia addestrato il modello, lo abbia affinato o lo abbia collegato a un RAG (Vector DB), quei dati probabilmente contengono informazioni personali (PII), preoccupazioni sulla privacy e altre informazioni sensibili. Questa montagna di dati sensibili è un bersaglio rosso lampeggiante a cui gli aggressori cercheranno di accedere.
Nell'ambito dello sviluppo dei modelli, vengono create nuove applicazioni in un modo completamente nuovo con nuove vulnerabilità che diventano nuovi punti di ingresso che gli aggressori cercheranno di utilizzare. Lo sviluppo spesso inizia con i team di data science che scaricano e riutilizzano modelli di machine learning open-source pre-addestrati da archivi di modelli online come HuggingFace o TensorFlow Hub. Gli archivi open-source di condivisione di modelli open source sono nati dalla complessità intrinseca della data science, dalla carenza di professionisti e dal valore che offrono alle organizzazioni riducendo drasticamente il tempo e gli sforzi necessari per l'adozione dell'AI generativa. Tuttavia, tali archivi Tuttavia, tali repository possono non disporre di controlli di sicurezza completi, il che in ultima analisi trasferisce il rischio all'azienda, cosa su cui gli aggressori contano. Essi possono iniettare una backdoor o un malware in uno di questi modelli e caricare nuovamente il modello infetto negli archivi di condivisione dei modelli, colpendo chiunque lo scarichi. La generale carenza di sicurezza in relazione ai modelli di apprendimento automatico (ML), unita ai dati sempre più sensibili a cui i modelli di ML sono esposti, significa che gli attacchi rivolti a questi modelli hanno un elevato potenziale di danno.
E durante l'inferenza e l'uso in tempo reale, gli aggressori possono manipolare i prompt per eseguire il jailbreak delle protezioni e indurre i modelli a comportarsi in modo errato generando risposte non consentite a prompt dannosi, incluse informazioni distorte, false e altre informazioni tossiche, causando danni alla reputazione. In alternativa, gli aggressori possono manipolare il modello e analizzare le coppie di input-output per addestrare un modello surrogato che imiti il comportamento del modello bersaglio, "rubandone" di fatto le funzionalità e facendo perdere all'impresa il suo vantaggio competitivo.
Diverse organizzazioni stanno adottando approcci differenti per proteggere l'AI man mano che gli standard e i framework per la sicurezza dell'AI si evolvono. Il framework di IBM per la sicurezza dell'AI si basa sulla protezione dei principi chiave di un'implementazione AI, ovvero proteggere i dati, il modello e gli utilizzi. Inoltre, è necessario mettere in sicurezza l'infrastruttura su cui vengono costruiti e gestiti i modelli AI. Inoltre, bisogna stabilire una governance dell'AI e monitorare l'equità, la parzialità e la deriva nel tempo, il tutto in modo continuo per tenere traccia di qualsiasi cambiamento o deriva del modello.
E tutto questo deve essere fatto mantenendo la conformità normativa.
Mentre le organizzazioni si confrontano con le minacce esistenti e con il crescente costo delle violazioni dei dati, la protezione dell'AI sarà un'iniziativa importante, per la quale molte organizzazioni avranno bisogno di supporto. Per aiutare le organizzazioni a utilizzare l'AI in modo sicuro e affidabile, IBM ha lanciato IBM Guardium AI Security. Basandosi su decenni di esperienza nella sicurezza dei dati con IBM Guardium, questa nuova offerta consente alle organizzazioni di proteggere la loro implementazione dell'AI.
Esso permette di gestire il rischio di sicurezza e le vulnerabilità dei dati sensibili e dei modelli AI. Aiuta a identificare e risolvere le vulnerabilità nei modelli AI e a proteggere i dati sensibili. Monitora costantemente eventuali configurazioni errate dell'AI, rileva le fughe di dati e ottimizza il controllo degli accessi, con un leader affidabile nella sicurezza dei dati.
Parte di questa nuova offerta è IBM Guardium Data Security Center, che consente ai team responsabili della sicurezza e dell'AI di collaborare all'interno dell'organizzazione attraverso workflow integrati, una visione comune degli asset di dati e politiche di conformità centralizzate.
La sicurezza dell'AI è un viaggio e richiede la collaborazione tra team interfunzionali, team di sicurezza, team di rischio e conformità e team di IA, e le organizzazioni devono lavorare attraverso un approccio programmatico per proteggere la loro implementazione dell'AI.
Scopri come Guardium AI Security può aiutare la tua organizzazione e iscriviti al nostro webinar per maggiori informazioni.