Scopri in che modo l'AI spiegabile offre vantaggi per l'AI per la produzione

Che cosa è l'AI spiegabile?

L'AI spiegabile (eXplainable Artificial Intelligence, XAI) è un insieme di metodi e processi che consentono agli utenti di comprendere e considerare attendibili i risultati e l'output creati dagli algoritmi di machine learning. L'AI spiegabile viene utilizzata per descrivere un modello AI, il relativo impatto previsto ed i potenziali errori. Aiuta a caratterizzare la precisione, la correttezza, la trasparenza e i risultati del modello nel processo decisionale con tecnologia AI. L'AI spiegabile è fondamentale per un'organizzazione nello sviluppo della fiducia e della sicurezza quando vengono messi in produzione i modelli AI. Inoltre, l'AI spiegabile aiuta le organizzazioni ad adottare un approccio responsabile allo sviluppo AI.

Con il miglioramento dell'AI, gli esseri umani vengono sfidati a comprendere e ripercorrere il modo in cui l'algoritmo è arrivato a un risultato. L'intero processo di calcolo si trasforma in quello che viene comunemente definito una "scatola nera" che è impossibile interpretare. Questi modelli di scatola nera vengono creati direttamente dai dati. Neanche gli ingegneri o i data scientist che creano l'algoritmo possono comprendere o dimostrare cosa avviene precisamente all'interno di tali scatole nere o come l'algoritmo AI è arrivato ad un risultato specifico.

La comprensione del modo in cui un sistema abilitato per l'AI abbia raggiunto un'output specifico comporta diversi vantaggi.  La spiegabilità può aiutare gli sviluppatori a garantire che il sistema funzioni come previsto, potrebbe essere necessaria per soddisfare gli standard normativi oppure potrebbe essere importante per consentire a chi è interessato da una decisione di contestare o cambiare tale risultato.¹

Professionista che lavora con un laptop

Perché l'AI spiegabile è importante?

Per un'organizzazione è fondamentale avere una piena comprensione dei processi decisionali AI con il monitoraggio dei modelli e la responsabilità dell'AI e non fidarsi ciecamente di loro. L'AI spiegabile può aiutare gli esseri umani a comprendere e spiegare algoritmi di machine learning (ML), deep learning e reti neurali.

I modelli di machine learning sono spesso considerati come scatole nere impossibili da interpretare.² Le reti neurali utilizzate nel deep learning sono le più difficili da comprendere per un essere umano. Il pregiudizio, spesso basato su etnia, sesso, età o posizione, è sempre stato un rischio nella formazione dei modelli AI. Inoltre, le prestazioni del modello AI possono variare o peggiorare perché i dati di produzione sono differenti dai dati di formazione. Questo rende fondamentale per un'azienda monitorare e gestire continuamente i modelli per promuovere la spiegabilità dell'AI misurando l'impatto aziendale dell'utilizzo di tali algoritmi. L'AI spiegabile aiuta anche a promuovere la fiducia degli utenti finali, la controllabilità del modello e l'uso produttivo dell'AI. Inoltre, riduce i rischi di conformità, legali, di sicurezza e di reputazione dell'AI per la produzione.

L'Explainable AI è uno dei requisiti fondamentali per implementare l'AI responsabile, una metodologia per l'implementazione su vasta scala dei metodi AI in organizzazioni reali che comprende equità, spiegabilità del modello e responsabilità.³ Per aiutare ad adottare l'AI in modo responsabile, le organizzazioni devono includere principi etici nelle applicazioni e nei processi AI, creando sistemi AI basati sulla fiducia e sulla trasparenza.

Persona che guarda le persone durante una videochiamata sul computer portatile

Valutazione continua del modello

Con l'AI spiegabile, un'azienda può risolvere e migliorare le prestazioni del modello, aiutando gli stakeholder a comprendere i comportamenti dei modelli AI. L'analisi dei comportamenti del modello attraverso il tracciamento degli insight dei modelli sullo stato della distribuzione, sull'equità, sulla qualità e sulla deviazione è fondamentale per ridimensionare l'AI. La valutazione continua del modello consente alle aziende di confrontare le previsioni del modello, quantificare il rischio del modello e ottimizzare le prestazioni del modello. La visualizzazione di valori positivi e negativi nei comportamenti del modello con i dati utilizzati per generare la spiegazione rende più rapida la valutazione del modello. Una piattaforma di dati e AI può generare attribuzioni di funzioni per le previsioni del modello e consentire ai team di analizzare visivamente il funzionamento dei modelli con grafici interattivi e documenti esportabili.

Professionista che lavora con un laptop

Valore dell'AI spiegabile

Uno studio di Forrester relativo all'AI spiegabile e al monitoraggio dei modelli su IBM Cloud Pak for Data

Vantaggi dell'AI spiegabile

Rendi operativa l'AI con fiducia e sicurezza

Crea la fiducia nell'AI per la produzione. Sposta rapidamente in produzione i modelli AI. Garantisci l'interpretazione e la spiegabilità dei modelli AI. Semplifica il processo di valutazione del modello aumentandone la trasparenza e la tracciabilità.

Accelera i risultati dell'AI

Monitora e gestisci i modelli in modo sistematico per ottimizzare i risultati aziendali. Valuta e migliora continuamente le prestazioni del modello. Regola l'impegno per lo sviluppo del modello in base alla valutazione continua.

Riduci il rischio e il costo della governance del modello

Mantieni i tuoi modelli AI comprensibili e trasparenti. Gestisci i requisiti normativi, di conformità, del rischio e gli altri requisiti. Riduci al minimo il sovraccarico dell'ispezione manuale e gli errori costosi. Riduci il rischio di distorsioni non desiderate.

L'approccio di IBM all'AI spiegabile

Per più di 100 anni, IBM si è impegnata nella ricerca dell'innovazione in grado di portare benefici a tutti e non solo a poche persone. Questa filosofia è applicata anche all'AI: puntiamo a creare e offrire una tecnologia affidabile in grado di aumentare (non sostituire) il processo decisionale manuale.

Mentre l'AI mantiene la promessa di distribuire preziosi insight e modelli attraverso una moltitudine di applicazioni, l'ampia adozione dei sistemi di AI dipenderà fortemente dalla capacità delle persone di fidarsi dell'output dell'AI. La fiducia dell'uomo nella tecnologia si basa sulla comprensione del funzionamento della tecnologia stessa e sulla valutazione della relativa sicurezza e affidabilità. Tutto questo rende l'AI spiegabile estremamente importante. L'approccio di IBM all'AI spiegabile consiste nel rendere l'AI affidabile ed equa, di renderla chiara e garantisce che non causi problemi.

Al centro della nostra innovazione, IBM Research sta sviluppando approcci diversificati per individuare il modo in cui raggiungere equità, affidabilità, spiegabilità, responsabilità e allineamento del valore e come integrare tali aspetti durante l'intero ciclo di vita di un'applicazione AI. I framework e gli strumenti dell'AI spiegabile di IBM Research sono integrati nella piattaforma IBM Cloud Pak for Data in modo che le aziende possano sfruttare la nostra tecnologia AI più recente con maggiore controllo, sicurezza e scalabilità.

Persona che usa il cellulare vicino alla finestra di un ufficio

Cinque considerazioni per l'AI spiegabile

Cinque considerazioni per l'AI spiegabile

Per ottenere risultati desiderabili con l'AI spiegabile, considera i seguenti aspetti.

Equità e annullamento delle distorsioni: gestisci e monitora l'equità. Analizza la tua distribuzione per ricercare potenziali distorsioni. 

Riduzione della deviazione del modello: analizza il modello e fornisci suggerimenti in base al risultato più logico. Avvisa quando i modelli si discostano dai risultati previsti.

Gestione dei rischi del modello: quantifica e riduci i rischi del modello. Ricevi gli avvisi quando un modello non funziona correttamente. Comprendi le cause quando le deviazioni persistono.

Automazione del ciclo di vita: crea, esegui e gestisci i modelli nell'ambito dei servizi di dati e AI integrati. Unisci gli strumenti e i processi su una piattaforma per monitorare i modelli e condividere i risultati. Illustra le dipendenze dei modelli di machine learning.

Pronto per il multicloud: distribuisci i progetti AI su cloud ibridi, che comprendono cloud pubblici, privati e ambienti on premises. Promuovi la fiducia e l'attendibilità con l'AI spiegabile.

Particolare di un moderno edificio in vetro

Migliora la spiegabilità dell'AI con IBM Cloud Pak for Data

La piattaforma IBM Cloud Pak® for Data fornisce servizi di dati e AI in un ambiente unificato in modo che un'azienda possa valutare l'impatto e le relazioni di dati e modelli al fine di migliorare la spiegabilità dell'AI. Inoltre, consente alle aziende di ottenere gli insight del modello su distribuzioni, equità, qualità e rischio. La soluzione aiuta a spiegare le transazioni AI, i modelli categoriali, i modelli di immagine e i modelli di testo non strutturati con strumenti quali spiegazioni comparative e LIME (Local Interpretable Model-Agnostic Explanations). La capacità di rendere l'AI spiegabile e trasparente automatizzando il ciclo di vita dell'AI su un'architettura dell'informazione moderna è fondamentale per il successo dell'AI per la produzione.

Approfondisci l'AI spiegabile

Come funziona l'AI spiegabile?

Con l'AI spiegabile e il machine learning interpretabile - le organizzazioni possono ottenere l'accesso al processo decisionale sottostante della tecnologia AI e hanno la possibilità di apportare modifiche. L'AI spiegabile può migliorare l'esperienza utente di un prodotto o servizio e garantisce all'utente finale che l'AI sia in grado di prendere le decisioni corrette. In quale momento i sistemi AI prendono decisioni abbastanza attendibili da potersi fidare e in che modo il sistema AI può correggere gli errori che si verificano?⁴

Poiché l'AI diventa sempre più precisa, i processi di machine learning devono essere ancora compresi e controllati per garantire che i risultati del modello AI siano accurati. Esaminiamo le differenze tra AI e XAI, i metodi e le tecniche utilizzati per trasformare l'AI in XAI e la differenza tra interpretare e spiegare i processi AI.

Confronto tra AI e XAI

Qual è esattamente la differenza tra AI "regolare" e AI spiegabile? L'XAI implementa tecniche e metodi specifici per garantire che ogni decisione presa durante il processo di marchine learning possa essere tracciata e spiegata. L'AI, invece, spesso arriva a un risultato utilizzando un algoritmo di marchine learning, ma gli architetti dei sistemi AI non comprendono completamente in che modo l'algoritmo ha raggiunto tale risultato. Questo rende difficile il controllo della precisione e determina una perdita di controllo, responsabilità e controllabilità.

Tecniche dell'AI spiegabile

La configurazione delle tecniche XAI è composto da tre metodologie principali. La precisione della previsione e la tracciabilità riguardano i requisiti tecnologici, mentre la comprensione delle decisioni riguarda le esigenze umane. L'AI spiegabile - soprattutto il machine learning spiegabile - sarà fondamentale nel momento in cui le prossime generazioni dovranno comprendere, fidarsi e gestire in modo efficace una generazione emergente di partner di macchine artificialmente intelligenti. ⁵

Precisione della previsione
La precisione è una componente fondamentale del successo dell'utilizzo dell'AI nelle operazioni quotidiane. Eseguendo simulazioni e confrontando l'output dell'XAI con i risultati nel dataset di formazione, è possibile determinare la precisione della previsione. La tecnica più utilizzata per questa operazione è denominata LIME (Local Interpretable Model-Agnostic Explanations), che spiega la previsione dei classificatori tramite l'algoritmo ML.

Tracciabilità
La tracciabilità è un'altra tecnica fondamentale per realizzare l'XAI. Questa si ottiene, ad esempio, limitando le modalità in cui è possibile prendere le decisioni e impostando un ambito più ristretto di regole e funzioni di machine learning. Un esempio di tecnica XAI di tracciabilità è DeepLIFT (Deep Learning Important FeaTures), che confronta l'attivazione di ogni neurone con il relativo neurone di riferimento e mostra un collegamento tracciabile tra ogni neurone attivato, oltre alle dipendenze tra i neuroni stessi.

Comprensione della decisione
Questo è il fattore umano. Molte persone non hanno fiducia nell'AI, eppure per poterla utilizzare in modo efficiente, hanno bisogno di imparare a fidarsi. Questo obiettivo viene raggiunto addestrando il team che lavora con l'AI, in modo che possa comprendere come e perché l'AI prende decisioni.

Spiegabilità e interpretabilità nell'AI

L'interpretabilità è il grado in cui un osservatore può comprendere la causa di una decisione. È il tasso di successo che gli esseri umani possono prevedere per il risultato di un output dell'AI, mentre la spiegabilità si spinge oltre e analizza il modo in cui l'AI è arrivata al risultato.

In che modo l'AI spiegabile è collegata all'AI responsabile?

L'AI spiegabile e l'AI responsabile hanno obiettivi simili, ma approcci differenti. Ecco le principali differenze tra l'AI spiegabile e l'AI responsabile:

  • L'AI spiegabile osserva i risultati dell'AI dopo che i risultati sono stati elaborati.
  • L'AI responsabile esamina l'AI durante le fasi di pianificazione per rendere l'algoritmo AI responsabile prima del calcolo dei risultati.
  • L'AI spiegabile e l'AI responsabile possono lavorare insieme per migliorare l'AI.

Per ulteriori informazioni sull'AI spiegabile, crea un IBMid e inizia la tua prova di IBM Cloud Pak for Data oggi stesso.

Come implementare l'AI spiegabile

Utilizza queste risorse per scoprire come implementare l'AI spiegabile.

Seminario online: come gestire e monitorare i modelli Scopri cosa puoi fare quando i tuoi modelli non funzionano.
Guarda il webinar (link esterno a IBM) →

Percorso di formazione: gestisci l'AI con fiducia Scopri come tracciare e misurare i risultati dell'AI attraverso il relativo ciclo di vita, adattando e governando l'AI in base alle mutevoli condizioni dell'azienda.
Guarda l'esercitazione →

Esercitazione pratica: monitora i modelli di machine learning Esplora i processi dettagliati per valutare l'equità, la precisione e la spiegabilità dei modelli. 
Guarda l'esercitazione →

Casi di utilizzo dell'AI spiegabile

Assistenza sanitaria

Foto ravvicinata di 3 chirurghi in sala operatoria

Accelera la diagnostica, l'analisi delle immagini, l'ottimizzazione delle risorse e la diagnosi medica. Migliora la trasparenza e la tracciabilità nel processo decisionale per l'assistenza ai pazienti. Semplifica il processo di approvazione farmaceutica con l'AI spiegabile.

Servizi finanziari

Persona con una carta di credito che utilizza un laptop

Migliora le esperienze dei clienti con un processo trasparente di approvazione di crediti e prestiti. Velocizza le valutazioni di rischio del credito, della gestione patrimoniale e del rischio di crimini finanziari. Accelera la risoluzione di potenziali reclami e problematiche. Aumenta la fiducia nei prezzi, nei consigli sui prodotti e nei servizi di investimento.

Giustizia penale

Agente di polizia davanti a una contrassegnata come scena del crimine

Ottimizza i processi per la previsione e la valutazione dei rischi. Accelera le risoluzioni utilizzando l'AI spiegabile sull'analisi del DNA, sull'analisi della popolazione carceraria e sulla previsione dei crimini. Rileva potenziali distorsioni negli algoritmi e nei dati di formazione.

Note a piè di pagina

¹ "Explainable AI," The Royal Society, 28 novembre 2019. (link esterno a IBM)
² "Explainable Artificial Intelligence," Jaime Zornozzi, 15 aprile 2020. (link esterno a IBM)
³ "Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI," ScienceDirect, giugno 2020. (link esterno a IBM)
⁴ ”Understanding Explainable AI,” Ron Schmelzer, Collaboratore Forbes, 23 July 2019. (link esterno a IBM)
⁵ ”Explainable Artificial Intelligence (XAI),” Dr. Matt Turek, The U.S. Dwfense Advanced Research Projects Agency (DARPA). (link esterno a IBM)