Come dovrebbe essere un framework di governance dell'AI etica?

Alone di linee di illuminazione ottica monolitiche quadrate neon, paesaggio CGI con tramonto rosa

Mentre la corsa per raggiungere l'AI generativa si intensifica, anche il dibattito etico che circonda questa tecnologia continua a scaldarsi. E la posta in gioco diventa sempre più alta.

Secondo Gartner, "Le organizzazioni sono responsabili di garantire che i progetti di AI che sviluppano, distribuiscono o utilizzano non abbiano conseguenze etiche negative." Nel frattempo, il 79% dei dirigenti afferma che l'etica dell'AI è importante per il loro approccio all'AI a livello aziendale, ma meno del 25% ha operazionalizzato i principi di governance etica.

L'AI è anche in cima alla lista delle preoccupazioni del governo degli Stati Uniti. Alla fine di febbraio, lo Speaker Mike Johnson e il leader democratico Hakeem Jeffries hanno annunciato l'istituzione di una Task Force bipartisan sull'AI per esplorare come il Congresso può garantire che l'America continui a essere leader nell'innovazione globale dell'AI. La Task Force prenderà inoltre in considerazione le barriere necessarie per salvaguardare la nazione dalle minacce attuali ed emergenti e per garantire lo sviluppo di tecnologie sicure e affidabili.

Chiaramente, una buona governance è essenziale per affrontare i rischi associati all'AI.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Perché la governance dell'AI è importante

Poiché le aziende adottano sempre più l'AI nelle loro operazioni quotidiane, l'uso etico dell'AI è diventato un tema caldo. Il problema è che le organizzazioni spesso si affidano a principi aziendali generali, combinati con consigli di revisione legali o indipendenti, per valutare i rischi etici dei singoli casi d'uso dell'AI.

Tuttavia, secondo il case study di Gartner, i principi etici dell'AI possono essere troppo ampi o astratti. Poi, i leader dei progetti faticano a decidere se i singoli casi d'uso dell'AI siano etici o meno. Nel frattempo, i team legali e di revisione non hanno visibilità su come l'AI venga effettivamente utilizzata in azienda. Tutto ciò apre le porte a un uso non etico (intenzionale o meno) dell'AI e ai conseguenti rischi aziendali e di conformità.

Dato il potenziale impatto, il problema deve prima essere affrontato a livello di governance. Poi deve seguire una successiva implementazione organizzativa con i controlli e gli equilibri appropriati.

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell'AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Quattro ruoli fondamentali del framework di governance dell'AI

Come illustrato nel case study, i responsabili aziendali e della privacy di IBM® hanno sviluppato un framework per affrontare le problematiche etiche legate ai progetti di AI. Questo framework è sostenuto da quattro ruoli fondamentali:

  1. Comitato consultivo per le politiche: i leader senior sono responsabili della determinazione degli obiettivi normativi e di politica pubblica globali, nonché dei rischi e delle strategie in materia di privacy, dati e tecnologia.

  2. Consiglio per l'etica dell'AI: co-presieduto dal responsabile globale dell'etica all'AI dell'azienda di IBM Research e dal responsabile di privacy e fiducia, il Consiglio è composto da un team trasversale e centralizzato che definisce, mantiene e consiglia sulle politiche, pratiche e comunicazioni etiche dell'AI di IBM.

  3. Punti focali per l'etica dell'AI: ogni unità di business ha dei punti focali (rappresentanti dell'unità di business) che fungono da primo punto di contatto per identificare e valutare in modo proattivo i problemi di etica della tecnologia, mitigare i rischi per i singoli caso d'uso e inoltrare i progetti al Consiglio per l'etica dell'AI per la revisione. Gran parte della governance dell'AI dipende da queste persone, come vedremo più avanti.

  4. Rete di advocacy: una rete di base dei dipendenti che promuove una cultura di tecnologia AI etica, responsabile e affidabile. Questi sostenitori contribuiscono a flussi di lavoro aperti e aiutano a scalare le iniziative etiche dell'AI in tutta l'organizzazione.

Criteri di valutazione basati sul rischio

Se viene identificato un problema di etica dell'AI, il punto focale assegnato all'unità di business del caso d'uso avvierà una valutazione. Il punto focale esegue questo processo in prima linea, consentendo così il triage dei casi a basso rischio. Per i casi a rischio più elevato, viene completata una valutazione formale del rischio, che viene sottoposta all'esame del Consiglio per l'etica dell'AI.

Ogni caso d'uso viene valutato utilizzando linee guida tra cui:

  • Proprietà associate e uso previsto: indaga la natura, l'uso previsto e il livello di rischio di un particolare caso d'uso. Il caso d'uso potrebbe causare danni? Chi è l'utente finale? Vengono violati i diritti individuali?

  • Conformità normativa: determina se i dati saranno gestiti in modo sicuro e in conformità alle leggi sulla privacy e alle normative del settore.

  • Casi d'uso precedentemente rivisti: fornisce approfondimenti e i prossimi passi basati su casi d'uso precedentemente esaminati dal Consiglio per l'etica dell'AI. Include un elenco di casi d'uso dell'AI che richiedono l'approvazione del Consiglio.

  • Allineamento con i principi etici dell'AI: determina se i casi d'uso soddisfano i requisiti fondamentali, come l'allineamento con i principi di equità, trasparenza, spiegabilità, robustezza e privacy.

Benefici di un framework di governance dell'AI

Secondo il rapporto Gartner, l'implementazione di un framework di governance dell'AI ha portato benefici a IBM:

  • Scalando l'etica dell'AI: i punti focali promuovono la conformità e avviano revisioni nelle rispettive unità di business, permettendo così una revisione etica dell'AI su larga scala.

  • Aumentando l'allineamento strategico della visione etica dell'AI: i punti focali si connettono con leader tecnici, di pensiero e aziendali nel campo dell'etica dell'AI in tutta l'azienda e a livello globale.

  • Accelerando il completamento di progetti e proposte a basso rischio: valutando i servizi o progetti a basso rischio, i punti focali permettono la funzionalità di esaminare i progetti più rapidamente.

  • Migliorando la prontezza e la preparazione del consiglio: dando ai punti focali la possibilità di promuovere l'etica dell'AI fin dalle prime fasi del processo, il Consiglio per l'etica dell'AI può esaminare i caso d'uso rimanenti in modo più efficiente.

Da un grande potere derivano grandi responsabilità

Quando ChatGPT ha fatto il suo debutto nel giugno 2020, il mondo intero era pieno di aspettative incredibili. Ora, le tendenze attuali dell'AI indicano aspettative più realistiche riguardo alla tecnologia. Gli strumenti autonomi come ChatGPT possono catturare l'immaginazione popolare, ma l'integrazione efficace in servizi consolidati produrrà un cambiamento più profondo in tutti i settori.

Indubbiamente, l'AI apre le porte a nuovi potenti strumenti e tecniche per portare a termine il lavoro. Tuttavia, anche i rischi associati sono reali. Le funzionalità elevate dell'AI multimodale e la riduzione delle barriere per avervi accesso favoriscono anche gli usi impropri: deepfake, problemi di privacy, perpetuazione dei pregiudizi e persino l'elusione delle protezioni CAPTCHA potrebbero diventare sempre più facili per i gruppi di minaccia.

Mentre i malintenzionati stanno già utilizzando l'AI, anche il mondo degli affari legittimo deve adottare misure preventive per mantenere al sicuro dipendenti, clienti e comunità.

ChatGPT afferma: "Le conseguenze negative potrebbero comprendere pregiudizi perpetuati dagli algoritmi di AI, violazioni della privacy, esacerbazione delle disuguaglianze sociali o danni involontari a individui o comunità. Inoltre, le pratiche di AI non etiche potrebbero avere implicazioni per la fiducia, danni alla reputazione o conseguenze legali."

Per proteggersi da questi tipi di rischi, la governance etica dell'AI è essenziale.

Soluzioni correlate
IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Soluzioni di governance dell'AI

Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.

Scopri le soluzioni di governance dell'AI
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Scopri i servizi di governance dell'AI
Prossimi passi

Indirizza, gestisci e monitora l'AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live