Che cos'è l'AI spiegabile?
Iscriviti alla newsletter IBM
Due lavoratori seduti alla scrivania condivisa, entrambi guardando il monitor del computer

L'AI spiegabile (XAI) è un insieme di processi e metodi che consentono agli utenti umani di comprendere e considerare affidabili i risultati e gli output generati mediante algoritmi di machine learning. 

L'AI spiegabile viene utilizzata per descrivere un modello di AI, gli effetti previsti e i potenziali bias. Contribuisce a caratterizzare l'accuratezza, l'equità, la trasparenza e i risultati del modello nell'ambito dei processi decisionali basati su AI. L'AI spiegabile riveste un ruolo centrale nelle organizzazioni per instaurare fiducia e sicurezza nel momento in cui si inseriscono in produzione i modelli di AI. La spiegabilità dell'AI, inoltre, aiuta le organizzazioni ad adottare un approccio responsabile allo sviluppo dell'AI.

Con l'avanzare della tecnologia AI, per gli esseri umani diventa sempre più difficile comprendere e risalire al modo in cui l'algoritmo ha ottenuto un risultato determinato. L'intero processo di calcolo si trasforma in una cosiddetta "black box", impossibile da interpretare. Questi modelli definiti "black box" vengono creati direttamente dai dati, e nemmeno gli ingegneri o i data scientist che creano l'algoritmo sono in grado di comprendere o spiegare cosa succede esattamente al suo interno o come l'algoritmo AI sia arrivato a quello specifico risultato.

Comprendere in che modo un sistema basato sull'AI sia giunto a un determinato risultato ha molti vantaggi.  Grazie alla spiegabilità, gli sviluppatori possono assicurarsi che il sistema funzioni come previsto: potrebbe servire a soddisfare standard normativi, o essere importante per consentire a chi è interessato da una decisione di contestare o modificare tale risultato.¹

Come costruire un'AI responsabile su larga scala

Perché l'AI spiegabile è importante

È fondamentale per un'organizzazione comprendere appieno i processi decisionali dell''AI con il monitoraggio dei modelli e l'affidabilità dell'AI, senza fidarsi ciecamente. L'AI spiegabile può aiutare gli esseri umani a comprendere e spiegare gli algoritmi di machine learning (ML, apprendimento automatico), il deep learning e le reti neurali.

I modelli di apprendimento automatico (ML) spesso sono considerati alla stregua di black box, impossibili da interpretare.² Le reti neurali impiegate nel deep learning sono tra le più difficili da comprendere per un essere umano. I bias, spesso basati su razza, sesso, età o provenienza geografica, sono da sempre un rischio quando si addestra un modello di AI. Inoltre, le prestazioni del modello di AI possono essere soggette a deviazioni o degradazioni perché i dati di produzione differiscono da quelli di addestramento. Per questo motivo è fondamentale per le aziende monitorare e gestire continuamente i modelli al fine di promuovere la spiegabilità dell'AI, misurando al contempo l'impatto commerciale dell'utilizzo di tali algoritmi. L'AI spiegabile favorisce anche la fiducia degli utenti finali, la verificabilità dei modelli e l'uso produttivo dell'AI. Infine, attenua i rischi di conformità, legali, di sicurezza e di reputazione dell'AI di produzione.

L'AI spiegabile e uno dei requisiti fondamentali per l'implementazione dell'AI responsabile, una metodologia di implementazione di metodi AI su larga scala con equità, spiegabilità e affidabilità dei modelli nelle organizzazioni reali.³ Per agevolare l'adozione responsabile dell'AI, le organizzazioni devono incorporare principi etici nelle applicazioni e nei processi AI, creando sistemi basati sulla fiducia e sulla trasparenza.

Maggiori informazioni sull'etica dell'AI
Funzionamento dell'AI spiegabile

Attraverso l'AI spiegabile, così come attraverso il machine learning interpretabile, le organizzazioni possono accedere al processo decisionale sottostante la tecnologia AI e hanno la possibilità di apportarvi modifiche. L'AI spiegabile è in grado di migliorare l'esperienza utente di un dato prodotto o servizio perché consente all'utente finale di fidarsi della bontà delle decisioni prese dall'AI. In che momento la fiducia nelle decisioni prese dai sistemi AI è tale da non sollevare dubbi, e come possono questi sistemi correggere eventuali errori che si dovessero presentare?⁴

Mentre l'AI avanza progressivamente, i processi di ML devono ancora essere compresi e controllati per garantire l'accuratezza dei risultati offerti dai modelli di AI. Vediamo ora la differenza tra AI e XAI, i metodi e le tecniche impiegati per trasformare l'AI in XAI e la differenza tra interpretare e spiegare i processi dell'AI.

Confronto tra AI e XAI
Qual è di preciso la differenza tra AI "normale" e AI spiegabile? La XAI implementa tecniche e metodi specifici per garantire che ogni decisione presa durante il processo di apprendimento automatico (ML) possa essere tracciata e spiegata. D'altro canto, l'AI spesso giunge a un determinato risultato utilizzando un algoritmo di apprendimento automatico (ML), ma gli architetti dei sistemi AI non comprendono appieno in che modo questo sia arrivato a tale risultato. Ciò rende difficile verificarne l'accuratezza e porta alla perdita di controllo, attendibilità e verificabilità.

Tecniche di AI spiegabile
La configurazione delle tecniche di XAI prevede tre metodi principali. L'accuratezza e la tracciabilità delle previsioni soddisfano i requisiti tecnologici, mentre la comprensione delle decisioni soddisfa le esigenze umane. L'AI spiegabile, e in particolare l'apprendimento automatico (ML) spiegabile, saranno essenziali se vogliamo che in futuro si possa comprendere, attribuire la giusta fiducia e gestire con efficacia una generazione emergente di macchine intelligenti artificiali.⁵

Accuratezza delle previsioni
L'accuratezza è una componente chiave di un impiego efficace dell'AI nelle operazioni quotidiane. Attraverso l'esecuzione di simulazioni e il confronto tra l'output della XAI e i risultati del dataset di addestramento, è possibile determinare l'accuratezza delle previsioni. La tecnica più usata a questo scopo è la cosiddetta LIME (Local Interpretable Model-Agnostic Explanations, spiegazione locale agnostica al modello), che spiega la previsione dei classificatori con l'algoritmo di apprendimento automatico (ML).

Tracciabilità
La tracciabilità è un'altra tecnica chiave per realizzare con successo la XAI. Si consegue, per esempio, limitando il modo in cui si possono prendere decisioni e definendo un ambito più ristretto per quanto riguarda regole e funzioni del ML. Un esempio di tecnica di tracciabilità della XAI è DeepLIFT (Deep Learning Important FeaTures), che confronta l'attivazione di ogni neurone con il suo neurone di riferimento e mostra un collegamento tracciabile tra ogni neurone attivato e persino le dipendenze tra di essi.

Comprensione delle decisioni
Questo è il fattore umano. Molte persone non si fidano dell'AI, ma per utilizzarla in modo efficiente devono imparare a farlo. Ciò si ottiene istruendo il team che lavora con l'AI, in modo che possa capire come e perché l'AI prende le decisioni.

Spiegabilità e interpretabilità nell'AI

L'interpretabilità è la misura in cui un osservatore può comprendere il motivo di una decisione, è la percentuale di successo del risultato di un output AI che gli esseri umani possono prevedere. La spiegabilità, invece, compie un ulteriore passo avanti per analizzare come l'AI è giunta al risultato.

Che rapporto c'è tra AI spiegabile e AI responsabile?

L'AI spiegabile e l'AI responsabile hanno obiettivi simili, ma seguono approcci diversi. Ecco le principali differenze tra AI spiegabile e AI responsabile:

  • l'AI spiegabile riguarda i risultati dell'AI dopo che sono stati calcolati i risultati
  • l'AI responsabile riguarda le fasi di pianificazione dell'AI per rendere responsabile l'algoritmo AI prima del calcolo dei risultati
  • l'AI spiegabile e l'AI responsabile possono collaborare per un'AI migliore
Valutazione continua del modello

Con l'AI spiegabile, le aziende possono risolvere i problemi e migliorare le prestazioni del modello e, allo stesso tempo, aiutare gli stakeholder a comprendere i comportamenti dei modelli di AI. L'analisi del comportamento dei modelli attraverso il monitoraggio degli insight su stato di implementazione, equità, qualità e deviazioni è essenziale per la scalabilità dell'AI.

La valutazione continua dei modelli consente alle aziende di mettere a confronto le previsioni dei modelli, di quantificarne il rischio e di ottimizzarne le prestazioni. La visualizzazione di valori positivi e negativi nei comportamenti dei modelli con i dati utilizzati per generare la spiegazione velocizza le valutazioni del modello. Una piattaforma di dati e AI può generare attribuzioni di funzioni per le previsioni del modello e consentire ai team di studiarne visivamente il comportamento con grafici interattivi e documenti esportabili.

Vantaggi dell'AI spiegabile
Rendere operativa l’AI, trasmettendo fiducia e sicurezza

Infondere fiducia nell'AI di produzione. Portare rapidamente i modelli di AI in produzione. Garantire l'interpretabilità e la spiegabilità dei modelli di AI. Semplificare il processo di valutazione dei modelli, aumentandone la trasparenza e la tracciabilità.

Velocizzare i tempi di ottenimento dei risultati AI

Monitorare e gestire sistematicamente i modelli per ottimizzare i risultati aziendali. Valutare e migliorare continuamente le prestazioni dei modelli. Perfezionare l'impegno per lo sviluppo del modello attraverso la valutazione continua.

Mitigare rischio e costo della governance dei modelli

Fare in modo che i modelli di AI siano sempre spiegabili e trasparenti. Gestire tutti i requisiti normativi, di conformità, di gestione del rischio e di altra natura. Ridurre al minimo le spese generali di ispezione manuale e di errori costosi. Ridurre il rischio di bias involontari.

Cinque considerazioni sull'AI spiegabile

Per ottenere risultati auspicabili con l'AI spiegabile, considera gli aspetti elencati di seguito.

Equità e assenza di pregiudizi: gestire e monitorare l'equità. Esaminare l'implementazione per individuare potenziali pregiudizi. 

Riduzione della deviazione dei modelli: analizzare il modello in uso e formulare raccomandazioni basate sul risultato più logico. Avvisare quando i modelli si discostano dai risultati previsti.

Gestione del rischio dei modelli: quantificare e mitigare il rischio nei modelli. Ricevere un avviso quando un modello ha prestazioni inadeguate. Capire cosa è successo quando le deviazioni persistono.

Automazione del ciclo di vita: creare, eseguire e gestire modelli nell'ambito dei servizi dati e AI integrati. Unificare strumenti e processi su una piattaforma per monitorare i modelli e condividere i risultati. Spiegare le dipendenze dei modelli di machine learning.

Predisposizione per il multicloud: implementare i progetti AI su cloud ibridi, tra cui cloud pubblici, cloud privati e on-premise. Promuovere la fiducia e la sicurezza con l'AI spiegabile.

Casi d'uso dell'AI spiegabile
  • Sanità: accelerare la diagnostica, l'analisi delle immagini, l'organizzazione delle risorse e le diagnosi mediche. Migliorare la trasparenza e la tracciabilità del processo decisionale per la cura dei pazienti. Semplificare l'iter di approvazione dei prodotti farmaceutici.
  • Servizi finanziari: migliorare l'esperienza del cliente con un processo di approvazione di prestiti e crediti trasparente. Velocizzare le valutazioni di rischio di credito, di gestione patrimoniale e di reato finanziario. Accelerare la risoluzione di potenziali reclami e problemi. Aumenta la fiducia nei prezzi, nelle raccomandazioni di prodotto e nei servizi di investimento.
  • Giustizia penale: ottimizzare i processi di previsione e valutazione del rischio. Accelerare le risoluzioni utilizzando l'AI spiegabile per l'analisi del DNA, l'analisi della popolazione carceraria e la previsione dei reati. Rilevare potenziali bias nei dati e negli algoritmi di addestramento.
Soluzioni correlate
IBM Cloud Pak® for Data

Modernizzare per automatizzare il ciclo di vita dell'AI. Aggiungere governance e sicurezza ai dati e ai servizi di AI praticamente ovunque.

Maggiori informazioni
IBM® Watson Studio

Creare e scalare l'AI con fiducia e trasparenza. Creare, eseguire e gestire i modelli di AI con monitoraggio costante per l'AI spiegabile.

Maggiori informazioni
IBM Watson Knowledge Catalog

Governare i dati e i modelli di AI con un catalogo di dati end-to-end supportato da metadati attivi e gestione delle politiche.

Maggiori informazioni
Risorse L'urgenza della governance dell'AI

Leggi l'approccio in tre passaggi alla governance dell'AI. Scopri insight su come creare sistemi di governance in grado di monitorare l'AI etica.

Prepara i modelli per il monitoraggio

Impara a configurare e attivare il monitoraggio dei modelli. Usa un modello di esempio del rischio per selezionare l'implementazione e impostare il tipo di dati per la registrazione payload.

Esplora il valore dell'AI spiegabile

Forrester Consulting esamina il ritorno sull'investimento previsto per le aziende che implementano l'AI e il monitoraggio dei modelli.

Scalare l'AI con fiducia e trasparenza

Lufthansa migliora l'esperienza del cliente e l'efficienza della compagnia aerea con l'automazione del ciclo di vita dell'AI e la riduzione di deviazioni e bias.

Fai il passo successivo

La piattaforma IBM cloud Pak for Data fornisce servizi di dati AI in un ambiente unificato, in modo che la tua azienda possa valutare l'impatto e le relazioni tra dati e modelli per migliorare la spiegabilità dell'AI. In questo modo, inoltre, potrai ottenere insight di modelli su implementazioni, equità, qualità e rischio. La soluzione contribuisce a spiegare le transazioni AI, i modelli categoriali, i modelli di immagini e i modelli di testo non strutturati con strumenti quali le spiegazioni contrastive e la tecnica LIME.

Prova IBM Cloud Pak for Data as a Service Scopri come spiegare le transazioni
Note a piè di pagina

¹ ”Explainable AI,” The Royal Society, 28 novembre 2019. (link esterno a ibm.com)

² ”Explainable Artificial Intelligence,” Jaime Zornoza, 15 aprile 2020. (link esterno a ibm.com)

³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI,” ScienceDirect, giugno 2020. (link esterno a ibm.com)

⁴ ”Understanding Explainable AI,” Ron Schmelzer, collaboratore di Forbes, 23 luglio 2019. (link esterno a ibm.com)

⁵ ”Explainable Artificial Intelligence (XAI),” Dott. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA). (link esterno a ibm.com)