L'intelligenza artificiale spiegabile (XAI) è un insieme di processi e metodi che consentono agli utenti umani di comprendere e considerare affidabili i risultati e gli output generati mediante algoritmi di machine learning.
L'AI spiegabile viene utilizzata per descrivere un modello di AI, gli effetti previsti e i potenziali bias. Contribuisce a caratterizzare l'accuratezza, l'equità, la trasparenza e i risultati del modello nell'ambito dei processi decisionali basati su AI. L'AI spiegabile è fondamentale nelle organizzazioni per creare fiducia e sicurezza nel momento di messa in produzione di modelli AI. La spiegabilità dell'AI, inoltre, aiuta le organizzazioni ad adottare un approccio responsabile allo sviluppo dell'AI.
Con l'avanzare della tecnologia AI, per gli esseri umani diventa sempre più difficile comprendere e risalire al modo in cui l'algoritmo ha ottenuto un determinato risultato. L'intero processo di calcolo si trasforma in una cosiddetta "black box", impossibile da interpretare. Questi modelli definiti "black box" vengono creati direttamente dai dati, e nemmeno gli ingegneri o i data scientist che creano l'algoritmo sono in grado di comprendere o spiegare cosa succede esattamente al suo interno o come l'algoritmo AI sia arrivato a quello specifico risultato.
Comprendere in che modo un sistema basato sull'AI sia giunto a un determinato risultato ha molti vantaggi. Grazie alla spiegabilità, gli sviluppatori possono assicurarsi che il sistema funzioni come previsto: potrebbe servire a soddisfare standard normativi, o essere importante per consentire a chi è interessato da una decisione di contestare o modificare tale risultato.¹
È fondamentale per un'organizzazione comprendere appieno i processi decisionali dell''AI con il monitoraggio dei modelli e l'affidabilità dell'AI, senza fidarsi ciecamente. L'AI spiegabile può aiutare gli esseri umani a comprendere e spiegare gli algoritmi di machine learning (ML, apprendimento automatico), il deep learning e le reti neurali.
I modelli di apprendimento automatico (ML) spesso sono considerati alla stregua di black box, impossibili da interpretare.² Le reti neurali impiegate nel deep learning sono tra le più difficili da comprendere per un essere umano. I bias, spesso basati su razza, sesso, età o provenienza geografica, sono da sempre un rischio quando si addestra un modello di AI. Inoltre, le prestazioni del modello di AI possono essere soggette a deviazioni o degradazioni perché i dati di produzione differiscono da quelli di addestramento. Per questo motivo è fondamentale per le aziende monitorare e gestire continuamente i modelli al fine di promuovere la spiegabilità dell'AI, misurando al contempo l'impatto commerciale dell'utilizzo di tali algoritmi. L'AI spiegabile favorisce anche la fiducia degli utenti finali, la verificabilità dei modelli e l'uso produttivo dell'AI. Infine, attenua i rischi di conformità, legali, di sicurezza e di reputazione dell'AI di produzione.
L'AI spiegabile e uno dei requisiti fondamentali per l'implementazione dell'AI responsabile, una metodologia di implementazione di metodi AI su larga scala con equità, spiegabilità e affidabilità dei modelli nelle organizzazioni reali.³ Per agevolare l'adozione responsabile dell'AI, le organizzazioni devono incorporare principi etici nelle applicazioni e nei processi AI, creando sistemi basati sulla fiducia e sulla trasparenza.
Attraverso l'AI spiegabile, così come attraverso il machine learning interpretabile, le organizzazioni possono accedere al processo decisionale sottostante la tecnologia AI e hanno la possibilità di apportarvi modifiche. L'AI spiegabile è in grado di migliorare l'esperienza utente di un dato prodotto o servizio perché consente all'utente finale di fidarsi della bontà delle decisioni prese dall'AI. In che momento la fiducia nelle decisioni prese dai sistemi AI è tale da non sollevare dubbi, e come possono questi sistemi correggere eventuali errori che si dovessero presentare?⁴
Mentre l'AI avanza progressivamente, i processi di ML devono ancora essere compresi e controllati per garantire l'accuratezza dei risultati offerti dai modelli di AI. Vediamo ora la differenza tra AI e XAI, i metodi e le tecniche impiegati per trasformare l'AI in XAI e la differenza tra interpretare e spiegare i processi dell'AI.
Qual è di preciso la differenza tra AI "normale" e AI spiegabile? La XAI implementa tecniche e metodi specifici per garantire che ogni decisione presa durante il processo di apprendimento automatico (ML) possa essere tracciata e spiegata. D'altro canto, l'AI spesso giunge a un determinato risultato utilizzando un algoritmo di machine learning (ML), ma gli architetti dei sistemi AI non comprendono appieno in che modo questo sia arrivato a tale risultato. Ciò rende difficile verificarne l'accuratezza e porta alla perdita di controllo, attendibilità e verificabilità.
La configurazione delle tecniche di XAI consiste in tre metodi principali. L'accuratezza e la tracciabilità delle previsioni soddisfano i requisiti tecnologici, mentre la comprensione delle decisioni soddisfa le esigenze umane. L'AI spiegabile, e in particolare il machine learning spiegabile, saranno essenziali se vogliamo che in futuro si possa comprendere, attribuire la giusta fiducia e gestire con efficacia una generazione emergente di macchine intelligenti artificiali.⁵
L'accuratezza è una componente chiave di un impiego efficace dell'AI nelle operazioni quotidiane. Attraverso l'esecuzione di simulazioni e il confronto tra l'output della XAI e i risultati del dataset di addestramento, è possibile determinare l'accuratezza delle previsioni. La tecnica più usata a questo scopo è la cosiddetta LIME (Local Interpretable Model-Agnostic Explanations, spiegazione locale agnostica al modello), che spiega la previsione dei classificatori con l'algoritmo di apprendimento automatico (ML).
La tracciabilità è un'altra tecnica chiave per realizzare con successo la XAI. Si consegue, per esempio, limitando il modo in cui si possono prendere decisioni e definendo un ambito più ristretto per quanto riguarda regole e funzioni del ML. Un esempio di tecnica di tracciabilità della XAI è DeepLIFT (Deep Learning Important FeaTures), che confronta l'attivazione di ogni neurone con il suo neurone di riferimento e mostra un collegamento tracciabile tra ogni neurone attivato e persino le dipendenze tra di essi.
Questo è il fattore umano. Molte persone non si fidano dell'AI, ma per utilizzarla in modo efficiente devono imparare a farlo. Ciò si ottiene istruendo il team che lavora con l'AI, in modo che possa capire come e perché l'AI prende le decisioni.
L'interpretabilità è la misura in cui un osservatore può comprendere il motivo di una decisione, è la percentuale di successo del risultato di un output AI che gli esseri umani possono prevedere. La spiegabilità, invece, compie un ulteriore passo avanti per analizzare come l'AI è giunta al risultato.
L'AI spiegabile e l'AI responsabile hanno obiettivi simili, ma seguono approcci diversi. Ecco le principali differenze tra AI spiegabile e AI responsabile:
Con l'AI spiegabile, le aziende possono risolvere i problemi e migliorare le prestazioni del modello e, allo stesso tempo, aiutare gli stakeholder a comprendere i comportamenti dei modelli di AI. L'analisi del comportamento dei modelli attraverso il monitoraggio degli insight su stato di implementazione, equità, qualità e deviazioni è essenziale per la scalabilità dell'AI.
La valutazione continua dei modelli consente alle aziende di mettere a confronto le previsioni dei modelli, di quantificarne il rischio e di ottimizzarne le prestazioni. La visualizzazione di valori positivi e negativi nei comportamenti dei modelli con i dati utilizzati per generare la spiegazione velocizza le valutazioni del modello. Una piattaforma di dati e AI può generare attribuzioni di funzioni per le previsioni del modello e consentire ai team di studiarne visivamente il comportamento con grafici interattivi e documenti esportabili.
Infondere fiducia nell'AI di produzione. Portare rapidamente i modelli di AI in produzione. Garantire l'interpretabilità e la spiegabilità dei modelli di AI. Semplificare il processo di valutazione dei modelli, aumentandone la trasparenza e la tracciabilità.
Monitorare e gestire sistematicamente i modelli per ottimizzare i risultati aziendali. Valutare e migliorare continuamente le prestazioni dei modelli. Perfezionare l'impegno per lo sviluppo del modello attraverso la valutazione continua.
Fare in modo che i modelli di AI siano sempre spiegabili e trasparenti. Gestire tutti i requisiti normativi, di conformità, di gestione del rischio e di altra natura. Ridurre al minimo le spese generali di ispezione manuale e di errori costosi. Ridurre il rischio di bias involontari.
Per ottenere risultati auspicabili con l'AI spiegabile, considera gli aspetti elencati di seguito.
Equità e assenza di pregiudizi: gestire e monitorare l'equità. Esaminare le implementazioni per individuare potenziali pregiudizi.
Riduzione della deriva del modello: analizzare il modello in uso e formulare raccomandazioni basate sul risultato più logico. Avvisare quando i modelli si discostano dai risultati previsti.
Gestione del rischio dei modelli: quantificare e mitigare il rischio nei modelli. Ricevere un avviso quando un modello ha prestazioni inadeguate. Capire cosa è successo quando le derive persistono.
Automazione del ciclo di vita: creare, eseguire e gestire modelli nell'ambito dei servizi dati e AI integrati. Unificare strumenti e processi su una piattaforma per monitorare i modelli e condividere i risultati. Spiegare le dipendenze dei modelli di machine learning.
Predisposizione per il multicloud: implementare i progetti AI su ambienti hybrid cloud, tra cui cloud pubblici, cloud privati e on-premise. Promuovere la fiducia e la sicurezza con l'AI spiegabile.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.
Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
¹ "Explainable AI", The Royal Society, 28 novembre 2019.
² "Explainable Artificial Intelligence", Jaime Zornoza, 15 aprile 2020.
³ "Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI", ScienceDirect, giugno 2020.
⁴ "Understanding Explainable AI", Ron Schmelzer, Forbes contributor, 23 luglio 2019.
⁵ "Explainable Artificial Intelligence (XAI)", Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA).