La trasparenza dell'AI aiuta le persone ad accedere alle informazioni per capire meglio come è stato creato un sistema di intelligenza artificiale (AI) e come questo prende decisioni.
I ricercatori a volte descrivono l'AI come una "black box", in quanto può essere ancora difficile spiegare, gestire e regolare i risultati dell'AI a causa della crescente complessità della tecnologia. La trasparenza dell'AI aiuta ad aprire questa black box per comprendere meglio i risultati dell'AI e il modo in cui i modelli prendono le decisioni.
Un numero crescente di settori ad alto rischio (tra cui finanza, sanità, risorse umane (HR) e forze dell'ordine) si affidano a modelli AI per il processo decisionale. Migliorare la conoscenza delle persone su come vengono addestrati questi modelli e su come determinano i risultati crea fiducia nelle decisioni di AI e nelle organizzazioni che le utilizzano.
I creatori di AI possono ottenere un'AI trasparente e affidabile attraverso la divulgazione. Possono documentare e condividere la logica e il ragionamento dell'algoritmo di AI sottostante, gli input di dati utilizzati per addestrare il modello, i metodi utilizzati per la valutazione e la convalida del modello e altro ancora. Questo consente agli stakeholder di valutare l'accuratezza predittiva del modello rispetto a equità, deriva e distorsioni.
Un elevato livello di trasparenza è essenziale per un'AI responsabile. L'AI responsabile è un insieme di principi che aiutano a guidare la progettazione, lo sviluppo, l'implementazione e l'uso dell'AI. Considera il più ampio impatto sociale dei sistemi di AI e le misure necessarie per allineare queste tecnologie ai valori degli stakeholder, agli standard legali e alle considerazioni etiche.
Le applicazioni di AI come i chatbot di AI generativa, gli agenti virtuali e i motori di raccomandazioni sono ora utilizzati nel mondo ogni giorno da decine di milioni di persone. La trasparenza sul funzionamento di questi strumenti di AI probabilmente non è un problema per questo livello di processo decisionale a basso rischio: se il modello si rivelasse impreciso o distorto, semplicemente gli utenti potrebbero perdere del tempo oppure un potenziale guadagno.
Tuttavia, sempre più settori stanno adottando applicazioni di AI per dare forma al processo decisionale ad alto rischio. Ad esempio, l'AI ora aiuta le aziende e gli utenti a fare scelte negli investimenti, diagnosi mediche, decisioni in materia di assunzione, condanne penali e altro ancora. In questi casi, le potenziali conseguenze di output dell'AI distorti o imprecisi sono molto più pericolose. La gente può perdere i risparmi di una vita, opportunità di carriera o persino anni della propria vita.
Affinché gli stakeholder abbiano fiducia nel fatto che l'AI stia prendendo decisioni efficaci ed eque per loro conto, hanno bisogno di visibilità su come funzionano i modelli, sulla logica degli algoritmi e su come il modello viene valutato per accuratezza ed equità. Devono inoltre saperne di più sui dati utilizzati per addestrare e ottimizzare il modello, comprese le fonti dei dati e il modo in cui i dati vengono trattati, ponderati ed etichettati.
Oltre a creare fiducia, la trasparenza dell'AI favorisce la condivisione delle conoscenze e la collaborazione nell'intero ecosistema di AI, contribuendo ai progressi nello sviluppo dell'AI. Ed essendo trasparenti per impostazione predefinita, le organizzazioni possono concentrarsi maggiormente sull'uso delle tecnologie di AI per raggiungere gli obiettivi aziendali e preoccuparsi meno dell'affidabilità dell'AI.
La rete di requisiti normativi che circondano l'uso dell'AI è in continua evoluzione. I processi modello trasparenti sono fondamentali per la conformità a queste normative e per rispondere alle richieste di revisori, regolatori e validatori di modelli. L'EU AI Act è considerato il primo quadro normativo completo al mondo per l'AI.
La legge sull'intelligenza artificiale dell'Unione europea (UE) adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse all'AI a seconda del rischio che rappresentano. Proibisce alcuni usi dell'AI e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per altri. Esistono ulteriori obblighi di trasparenza per tipi specifici di AI. Ad esempio:
L'implementazione del Regolamento generale sulla protezione dei dati (GDPR) dell'UE ha spinto altri Paesi ad adottare regolamentazioni sulla privacy dei dati personali. Allo stesso modo, gli esperti prevedono che l'EU AI Act stimolerà lo sviluppo di una governance dell'AI e di standard etici in tutto il mondo.
La maggior parte dei Paesi e delle regioni deve ancora emanare una legislazione o regolamenti completi sull'uso dell'AI; tuttavia, sono disponibili diversi quadri normativi ampi. Sebbene non siano sempre applicabili, esistono per guidare la regolamentazione futura e lo sviluppo e l'uso responsabili dell'AI. Ecco alcuni esempi degni di nota:
La trasparenza dell'AI è strettamente correlata ai concetti di spiegabilità e interpretabilità dell'AI. Questi concetti forniscono spunti che aiutano ad affrontare l'annoso problema della "black box", ovvero il problema pratico ed etico che i sistemi di AI sono così sofisticati da essere impossibili da interpretare per gli esseri umani. Tuttavia, hanno definizioni e casi d'uso distinti:
La spiegabilità dell'AI, o AI spiegabile (XAI), è un insieme di processi e metodi che consentono agli utenti umani di comprendere e ritenere affidabili i risultati e gli output creati dai modelli di apprendimento automatico. La spiegabilità del modello esamina il modo in cui un sistema AI arriva a un risultato specifico e aiuta a caratterizzare la trasparenza del modello.
L'interpretabilità dell'AI si riferisce alla possibilità di rendere il processo complessivo dell'AI comprensibile per un essere umano. L'interpretabilità dell'AI fornisce informazioni significative sulla logica sottostante, sulla significatività e sulle conseguenze previste del sistema AI. È la percentuale di successo del risultato di un output AI che gli esseri umani possono prevedere. La spiegabilità, invece, compie un ulteriore passo avanti per analizzare in che modo il modello AI è giunto al risultato.
La trasparenza dell'AI va oltre la semplice spiegazione dei processi decisionali dell'AI. Comprende i fattori legati allo sviluppo dei sistemi AI e alla loro implementazione, come i dati di addestramento dell'AI e chi vi ha accesso.
Sebbene la trasparenza dell'AI differisca in base al caso d'uso, all'organizzazione e al settore, esistono alcune strategie che le aziende potrebbero tenere a mente quando creano sistemi di AI. Ad alto livello, queste strategie includono l'adozione di principi chiari di fiducia e trasparenza, la messa in pratica di tali principi e la loro integrazione nell'intero ciclo di vita dell'AI.
Una strategia più specifica per la trasparenza dell'AI consiste in una divulgazione completa in ogni fase del ciclo di vita dell'AI. Per garantire la divulgazione, le organizzazioni devono stabilire quali informazioni condividere e come farlo.
Il caso d'uso del modello, il settore, il destinatario e altri fattori contribuiranno a stabilire quali informazioni è necessario divulgare. Ad esempio, gli utilizzi ad alto rischio dell'AI (come le valutazioni dei mutui) richiederanno probabilmente una divulgazione più completa rispetto alle applicazioni a rischio più basso (come la classificazione audio per gli assistenti virtuali).
La divulgazione potrebbe includere tutte o alcune delle seguenti informazioni sul modello:
Ogni ruolo nel ciclo di vita dell'AI può contribuire alle informazioni, distribuendo la responsabilità nell'ecosistema piuttosto che a un singolo individuo. Sono disponibili piattaforme software e strumenti che possono aiutare ad automatizzare la raccolta di informazioni e altre attività di governance dell'AI.
Le organizzazioni possono presentare informazioni sulla trasparenza dell'AI in vari formati, come documenti stampati o video. Il formato dipende sia dal destinatario, sia dal caso d'uso. Le informazioni sono destinate a un consumatore e quindi devono essere facilmente assimilabili? Oppure sono destinate a un data scientist o a un regolatore e quindi necessitano di un elevato livello di dettagli tecnici?
I formati potrebbero includere:
Le pratiche di AI trasparenti presentano numerosi vantaggi, ma sollevano anche problemi di sicurezza e privacy. Ad esempio, più informazioni vengono fornite sul funzionamento interno di un progetto di AI, più facile sarà per gli hacker individuare e sfruttare le vulnerabilità. OpenAI ha affrontato proprio questa sfida nel suo rapporto tecnico GPT-4, affermando:
"Dato sia il panorama competitivo, sia le implicazioni sulla sicurezza dei modelli su larga scala come GPT-4, questo report non contiene ulteriori dettagli sull'architettura (compresa la dimensione del modello), sull'hardware, sul calcolo di addestramento, sulla costruzione di set di dati, sul metodo di addestramento o simili."4
La citazione rivela anche un'altra sfida alla trasparenza dell'AI: il compromesso tra trasparenza e protezione della proprietà intellettuale. Altri ostacoli potrebbero includere la difficoltà di spiegare in modo chiaro programmi complessi e intricati e algoritmi di apprendimento automatico (come le reti neurali) a persone non esperte, nonché la mancanza di standard di trasparenza a livello globale per l'AI.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.
1. "Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence", la Casa Bianca, 30 ottobre 2023.
2. "Notice and Explanation", la Casa Bianca.
3. "Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System", Ministero degli Affari Esteri del Giappone, 2023.
4. "GPT-4 Technical Report", arXiv, 15 marzo 2023.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io