Nella governance dell'AI non è possibile governare ciò che non si può vedere. Tuttavia, la sola visibilità non basta se non si comprendono anche i rischi insiti nei modelli e sistemi AI.
Questo è particolarmente vero per tecnologie emergenti come l'agentic AI. Gli agenti AI possono migliorare l'efficienza e aumentare la produttività, ma comprendere l'intera portata dei rischi che comportano è più impegnativo. "I rischi per l'AI generativa e il machine learning possono essere significativi fin dall'inizio, specialmente per certi casi d'uso", scrivono Manish Bhide, Heather Gentile e Jordan Byrd di IBM. “Se si aggiungono gli agenti AI, i rischi aumentano ulteriormente.”
Il nostro white paper, "AI agents: Opportunities, risks and mitigations", fornisce un'indagine approfondita sui rischi dell'agentic AI ed esplora sia l'amplificazione dei rischi dell'AI già noti sia l'emergere di nuove sfide uniche.
Basandosi sul nostro lavoro precedente relativo all'identificazione di rischi e mitigazioni per i foundation model, questo articolo fornisce ai professionisti le conoscenze fondamentali necessarie per comprendere, identificare e mitigare i rischi. Si tratta di un primo passo importante verso una scalabilità responsabile dell'agentic AI.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Gli agenti AI sono altamente autonomi e completano vari compiti senza la continua supervisione umana. Possiedono inoltre quattro caratteristiche che possono comportare dei rischi:
· Opacità: una visibilità limitata sul funzionamento interno e sulle interazioni di un agente AI può ostacolare la comprensione delle azioni.
· Flessibilità: gli agenti AI possono selezionare autonomamente risorse, strumenti e persino altri agenti AI per completare i compiti, aumentando la probabilità di azioni inaspettate.
· Complessità: man mano che gli agenti AI imparano e si adattano, il loro funzionamento interno diventa più complesso, rendendo l'analisi sempre più difficile.
· Non reversibilità: agendo senza una continua supervisione umana, gli agenti AI hanno una maggiore possibilità di intraprendere azioni irreversibili con conseguenze tangibili sia nella sfera digitale che fisica.
L'autonomia e le caratteristiche degli agenti AI presentano rischi, sfide e impatti sociali potenziali che i professionisti devono comprendere per scalare in modo responsabile l'agentic AI.
L'agentic AI introduce nuovi rischi e sfide nel panorama dell'AI, che i professionisti probabilmente hanno considerato meno nella progettazione, dello sviluppo, dell'adozione o della governance dei precedenti sistemi di AI.
Ad esempio, un nuovo rischio emergente riguarda il bias dei dati: un agente AI potrebbe modificare un set di dati o un database in modo da introdurre bias. In questo caso, l'agente AI intraprende un'azione che potenzialmente ha un impatto sul mondo e potrebbe essere irreversibile se il bias introdotto non viene rilevato.
L'agentic AI amplifica anche diverse aree di rischio note, inclusa la valutazione dei sistemi e il potenziale di azioni inspiegabili o non tracciabili. I professionisti devono rivalutare queste aree quando lavorano con gli agenti AI.
Ad esempio, un agente AI con accesso illimitato a risorse, database o strumenti amplifica il rischio di condividere informazioni sensibili o riservate con gli utenti. Senza le dovute protezioni, un agente di questo tipo potrebbe memorizzare e condividere in modo inappropriato informazioni personali, proprietà intellettuale o altri dati riservati con gli utenti del sistema. Il white paper dettaglia questi rischi e sfide, spiegandone le origini e i potenziali impatti.
Affrontare i rischi e le sfide uniche dell'agentic AI richiede un approccio end-to-end alla mitigazione del rischio, attuato attraverso una governance dell'AI. Tuttavia, come hanno recentemente spiegato Phaedra Boinodiris e Jon Parker di IBM, "L'agentic AI sta progredendo così rapidamente che le organizzazioni potrebbero avere difficoltà a trovare precedenti o best practice per minimizzare i danni."
Fortunatamente, molte strategie che possono aiutare a mitigare i rischi per altri tipi di AI, come l'AI generativa e il machine learning, possono anche contribuire a mitigare i rischi per l'agentic AI. Ad esempio, includere il contributo umano nel processo è una best practice per tutti i tipi di AI responsabile. Consentire la convalida umana e il feedback sulle azioni intraprese dagli agenti AI può aiutare a garantire l'accuratezza e la pertinenza e a mantenere l'allineamento con i valori organizzativi.
Comprendere i rischi unici dell'agentic AI è un primo passo critico verso la scalabilità responsabile in tutta l'organizzazione e la realizzazione del ritorno sull'investimento (ROI) dell'AI responsabile. "AI agents: Opportunities, risks, and mitigations" può aiutare a concettualizzare meglio il landscape dei rischi dell'agentic AI e considerare come l'organizzazione può capitalizzare in modo responsabile le immense opportunità presentate dagli agenti AI.
Leggi AI agents: Opportunities, risks, and mitigations
Maggiori informazioni sull'approccio di IBM all'AI responsabile
Crea, implementa e gestisci assistenti e agenti AI potenti che automatizzano workflow e processi con l'AI generativa.
Costruisci il futuro della tua azienda con soluzioni AI di cui puoi fidarti.
I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.