My IBM Accedi Iscriviti

La soluzione migliore per il futuro delle aziende: proteggere l'AI generativa

6 maggio 2024

Tempo di lettura 4 minuti

Studio di IBM e AWS: meno del 25% degli attuali progetti di AI generativa è sicuro

Il mondo delle imprese da tempo si basa sulla convinzione che la fiducia sia la valuta del buon business. Ma, mentre l'AI trasforma e ridefinisce il modo in cui le aziende operano e il modo in cui i clienti interagiscono con le aziende, è necessario creare un rapporto di fiducia nella tecnologia.

I progressi nell'AI possono liberare il capitale umano che si può così concentrare su risultati di alto valore. Questa evoluzione è destinata ad avere un impatto trasformativo sulla crescita dell'azienda, ma le esperienze degli utenti e dei clienti dipendono dall'impegno delle organizzazioni nella creazione di soluzioni tecnologiche sicure, responsabili e affidabili.

Le aziende devono stabilire se l'AI generativa che si interfaccia con gli utenti è affidabile e la sicurezza è una componente fondamentale della fiducia. Ecco, qui sta una delle più grandi scommesse che le aziende devono affrontare: proteggere le loro implementazioni AI.

 

Innova ora, proteggi dopo: una discrepanza

Oggi, l'IBM® Institute for Business Value ha pubblicato lo studio Securing generative AI: What matters now, realizzato in collaborazione con IBM e AWS, in cui sono riportati nuovi dati, pratiche e raccomandazioni sulla protezione delle implementazioni di AI generativa. Secondo lo studio IBM, l'82% degli intervistati dei vertici aziendali ha dichiarato che un'AI affidabile e sicura è fondamentale per il successo della propria azienda. Anche se questo sembra far ben sperare, il 69% dei leader intervistati ha anche indicato che, quando si tratta di AI generativa, l'innovazione ha la precedenza sulla sicurezza.

Dare priorità all'innovazione o alla sicurezza può sembrare una scelta, ma in realtà è un vero e proprio test. In questo caso la tensione è evidente; le organizzazioni riconoscono che con l'AI generativa i rischi sono molto più alti, ma sembra che non abbiano capito la lezione dei problemi tecnologici del passato. Come per il passaggio all'hybrid cloud, lo sviluppo agile del software o lo zero-trust, la sicurezza dell'AI generativa può costituire un aspetto secondario. Più del 50% degli intervistati è preoccupato dei rischi imprevedibili che possono influenzare le iniziative di AI generativa e teme che, potenzialmente, creino una maggiore interruzione dell'attività. Eppure lo studio riporta che appena il 24% dei progetti attuali di AI generativa è sicuro. Perché c'è una tale discrepanza?

L'indecisione in materia di sicurezza può essere sia un indicatore, sia il risultato di una più ampia lacuna nella conoscenza dell'AI generativa. Quasi la metà degli intervistati (47%) ha dichiarato di essere incerta su dove e quanto investire quando si tratta di AI generativa. Anche quando i team sperimentano nuove funzionalità, i leader stanno ancora cercando di capire quali casi d'uso dell'AI generativa hanno più senso e come scalarli per i loro ambienti di produzione.

La protezione dell'AI generativa inizia dalla governance

Anche non sapere da dove iniziare potrebbe essere un ostacolo alle azioni di sicurezza. Ecco perché IBM e AWS hanno unito gli sforzi per delineare una guida d'azione e offrire consigli pratici per le organizzazioni che tentano di proteggere la propria AI.

Per creare fiducia e sicurezza nella propria AI generativa, le organizzazioni devono iniziare dalle basi, avendo come punto di partenza la governance. Infatti, l'81% degli intervistati ha indicato che l'AI generativa richiede un modello di governance della sicurezza radicalmente nuovo. Partendo da governance, rischio e conformità (GRC), i leader possono gettare le basi per una strategia di cybersecurity volta a proteggere la propria architettura di AI, allineandola agli obiettivi aziendali e ai valori del marchio.

Per garantire la sicurezza di qualsiasi processo, occorre innanzitutto capire come dovrebbe funzionare e come dovrebbe essere il processo previsto, in modo da poter individuare le deviazioni. L'AI che si allontana da ciò per cui è stata progettata operativamente può introdurre nuovi rischi con impatti aziendali imprevisti. Per questo motivo, individuare e comprendere questi rischi potenziali aiuta le organizzazioni a capire la propria soglia di rischio, in base ai propri requisiti di conformità e normativi.

Una volta stabiliti gli standard di governance, le organizzazioni sono in grado di stabilire in modo più efficace una strategia per proteggere la pipeline dell'AI.I dati, i modelli e il loro utilizzo, nonché l'infrastruttura sottostante che stanno creando e in cui stanno incorporando le loro innovazioni di AI. Mentre il modello a responsabilità condivisa per la sicurezza può cambiare a seconda di come l'organizzazione utilizza l'AI generativa. Sono disponibili numerosi strumenti, controlli e processi per contribuire a mitigare il rischio di impatto aziendale man mano che le organizzazioni sviluppano le proprie operazioni di AI.

Le organizzazioni devono anche riconoscere che mentre allucinazioni, etica e pregiudizi vengono spesso in mente per primi quando si pensa a un'AI affidabile, la pipeline di AI deve affrontare un panorama di minacce che mette a rischio la fiducia stessa. Le minacce convenzionali assumono un nuovo significato, le nuove minacce utilizzano le funzionalità offensive dell'AI come nuovo vettore di attacco e le nuove minacce cercano di compromettere gli asset e i servizi di AI su cui facciamo sempre più affidamento.

L'equazione fiducia-sicurezza

La sicurezza può contribuire a conferire fiducia e sicurezza nei casi d'uso dell'AI generativa. Per realizzare questa sinergia, le organizzazioni devono adottare un approccio d'insieme. La conversazione deve andare oltre gli stakeholder dell'IS e dell'IT e comprendere la strategia, lo sviluppo del prodotto, il rischio, la supply chain e il coinvolgimento del cliente.

Poiché queste tecnologie sono sia trasformative sia dirompenti, la gestione degli asset di AI e di AI generativa dell'organizzazione richiede una collaborazione tra i domini di sicurezza, tecnologia e business.

Un partner tecnologico può svolgere un ruolo chiave. Utilizzare l'ampiezza e la profondità delle competenze dei partner tecnologici in tutto il ciclo di vita delle minacce e in tutto l'ecosistema di sicurezza può essere una risorsa inestimabile. In effetti, lo studio IBM ha rivelato che oltre il 90% delle organizzazioni intervistate è abilitato attraverso un prodotto o un partner tecnologico terzo per le proprie soluzioni di sicurezza di AI generativa. Quando si tratta di selezionare un partner tecnologico per le proprie esigenze di sicurezza dell'AI generativa, le organizzazioni intervistate hanno segnalato quanto segue:

  • Il 76% cerca un partner che contribuisca a creare un caso di costo convincente con un ROI solido.
  • Il 58% cerca una guida per una strategia e una roadmap complessive.
  • Il 76% cerca partner in grado di facilitare l'addestramento, la condivisione e il trasferimento delle conoscenze.
  • Il 75% sceglie partner in grado di guidarli nell'evoluzione del panorama della conformità legale e normativa.

Lo studio chiarisce che le organizzazioni riconoscono l'importanza della sicurezza per le loro innovazioni AI, ma stanno ancora cercando di capire come affrontare al meglio la rivoluzione dell'AI. Costruire relazioni che possano aiutare a guidare, consigliare e supportare tecnicamente questi sforzi è un passo successivo cruciale nell'AI generativa protetta e affidabile. Oltre a condividere insight sulle percezioni e le priorità dei dirigenti, IBM e AWS hanno incluso una guida d'azione con consigli pratici per portare la tua strategia di sicurezza dell'AI generativa al livello successivo.

 

Autore

Dimple Ahluwalia

VP & Global Senior Partner

Security Services