Cos'è l'AI affidabile?

Colleghi che guardano un laptop su una scrivania vicino alla finestra

Autore

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Amanda McGrath

Staff Writer

IBM Think

Cos'è l'AI affidabile?

L'AI affidabile si riferisce a sistemi di intelligenza artificiale spiegabili, equi, interpretabili, solidi, trasparenti, sicuri e protetti. Queste qualità aumentano la fiducia nei sistemi AI tra gli stakeholder e gli utenti finali.

Un'intelligenza artificiale affidabile (TAI) può mitigare i potenziali rischi associati all'implementazione di modelli AI. Questi rischi legati all'AI includono danni a persone, organizzazioni ed ecosistemi. Quando si verificano danni di questo tipo, possono minare non solo la fiducia in modelli AI specifici, ma anche nell'intelligenza artificiale in generale.

I framework di AI affidabili possono aiutare a guidare le organizzazioni nello sviluppo, nell'adozione e nella valutazione delle tecnologie di AI. Diverse organizzazioni governative e intergovernative hanno stabilito tali framework, tra cui il National Institute of Standards and Technology (NIST) negli Stati Uniti, il gruppo di esperti di alto livello sull'intelligenza artificiale della Commissione europea e l'Organizzazione per la cooperazione e lo sviluppo economico (OCSE).

Inoltre, le aziende possono implementare diverse strategie e strumenti per migliorare l'affidabilità dei loro sistemi AI. Ad esempio, il monitoraggio continuo, la documentazione e i framework di governance dell'AI possono contribuire a minimizzare il rischio.

 

Perché l'AI affidabile è importante?

Capire come funziona una tecnologia è spesso la chiave per fidarsi della sua efficacia. Ma molti sistemi AI e di machine learning (ML), come i modelli di deep learning , funzionano come vere e proprie black box; assimilano dati e creano output, con poca o nessuna trasparenza sul modo in cui arrivano a tali risultati.

Di conseguenza, la mancanza di fiducia abbonda. Un sondaggio del 2023 ha rilevato che oltre il 40% dei leader aziendali ha espresso preoccupazioni sull'affidabilità dell'AI.1 Nel frattempo, anche i consumatori hanno dimostrato una certa diffidenza nei suoi confronti: uno studio del 2024 ha rilevato che l'inclusione del termine "AI" nell'etichettatura di un prodotto può rendere gli acquirenti meno propensi ad acquistarlo.2

Esempi reali di sistemi AI che producono risultati errati o dannosi in caso d'uso ad alto rischio alimentano ulteriormente i timori sulla fiducia nell'AI. In un noto esempio sanitario, un modello AI non è riuscito a diagnosticare in modo affidabile la sepsi. Sebbene il modello si sia comportato bene in un contesto di addestramento, non ha rilevato la sepsi in più di due terzi dei pazienti ospedalizzati.3

In altri casi, i modelli AI hanno dimostrato un processo decisionale algoritmico distorto, tra cui i sistemi di polizia predittiva che prendono di mira in modo sproporzionato le comunità minoritarie e i sistemi di tracciamento dei candidati che favoriscono i candidati di sesso maschile rispetto a quelli di sesso femminile. E poi ci sono problemi di sicurezza, come gli AI chatbot che rivelano inavvertitamente dati personali sensibili e gli hacker che utilizzano le vulnerabilità nei modelli AI per rubare informazioni aziendali riservate.

Quando i modelli AI hanno prestazioni inferiori o producono risultati dannosi, possono minare la fiducia non solo in quei modelli, ma nell'AI in generale, ostacolando potenzialmente lo sviluppo e l'adozione futuri dell'AI. Ottenere sistemi di AI affidabili e sostenere lo sviluppo futuro dell'AI significa fare luce all'interno della metaforica black box dell'AI. Ciò consente agli stakeholder di contare sulle loro applicazioni AI per fornire risultati affidabili e accurati riducendo al minimo i rischi di risultati distorti o non in linea con l'intento originale.

 

Quali sono i principi dell'AI affidabile?

Organizzazioni e framework diversi enfatizzano vari principi e obiettivi guida per un'AI affidabile. I principi di AI affidabile più citati includono:

  • Responsabilità
  • Attendibilità
  • Equità
  • Interpretabilità e trasparenza
  • Privacy
  • Affidabilità
  • Robustezza e sicurezza
  • Sicurezza

Responsabilità

La responsabilità nell'AI implica che gli attori dell'AI siano responsabili del corretto funzionamento dei sistemi AI durante il loro ciclo di vita. Questo include individui e organizzazioni che sono coinvolte nello sviluppo, nella distribuzione o nel funzionamento della tecnologia AI.4

 

Attendibilità

La spiegabilità dell'AI riguarda la verifica o la fornitura di giustificazioni per gli output di un modello. Esistono vari metodi di spiegabilità, noti nell'insieme come AI spiegabile, che consentono agli utenti umani di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di apprendimento automatico. 

 

Equità

L'equità nell'AI si riferisce al trattamento equo di individui e gruppi. Comprende l'attenuazione di distorsioni algoritmiche e di dati. La distorsione algoritmica si verifica quando errori sistemici negli algoritmi di apprendimento automatico producono risultati iniqui o discriminatori, mentre la distorsione dei dati si riferisce alla natura scorretta o non rappresentativa dei dati di addestramento utilizzati in un modello AI.

 

Interpretabilità e trasparenza

L'interpretabilità dell'AI aiuta le persone a comprendere e spiegare meglio i processi decisionali dei modelli AI. L'interpretabilità riguarda la trasparenza, che consente agli utenti di comprendere l'architettura di un modello, le caratteristiche che utilizza e il modo in cui le combina per fornire previsioni. Mentre alcuni modelli sono intrinsecamente interpretabili, altri richiedono l'uso di metodi di interpretazione.

 

Privacy

La privacy dell'AI si riferisce alla protezione delle informazioni personali o sensibili raccolte, utilizzate, condivise o memorizzate dall'AI. La privacy dell'AI è strettamente legata alla privacy dei dati. La privacy dei dati, nota anche come privacy delle informazioni, è il principio secondo cui una persona dovrebbe avere il controllo dei propri dati personali. Il rispetto della privacy dell'AI e dei dati può essere migliorato attraverso una serie di metodi, che vanno dalla crittografia all'apprendimento federato.

 

Affidabilità

L'affidabilità può essere definita come la capacità di funzionare come previsto o richiesto, senza guasti, per un determinato periodo di tempo in determinate condizioni. I sistemi AI affidabili, se utilizzati nelle condizioni previste, dovrebbero fornire risultati corretti in un determinato periodo, che potrebbe includere l'intera durata di tali sistemi.5

 

Robustezza e sicurezza

I sistemi AI sicuri e solidi dispongono di meccanismi di protezione contro gli attacchi esterni e gli accessi non autorizzati, che riducono al minimo i rischi di cybersecurity e le vulnerabilità. Possono funzionare in condizioni anomale senza causare danni indesiderati e tornare al normale funzionamento dopo un evento imprevisto.

 

Sicurezza

I sistemi AI sicuri non mettono in pericolo la vita umana, la salute, la proprietà o l'ambiente. Sono progettati in modo proattivo per proteggere le persone dai danni e includono precauzioni che attenuano i risultati non sicuri, inclusa la possibilità di rimuovere un sistema dall'uso.6

 

Quali rischi può mitigare un'AI affidabile?

I sistemi AI privi di qualità affidabili comportano un'ampia gamma di rischi. Il National Institute of Standards and Technology (NIST), che fa parte del Dipartimento del Commercio degli Stati Uniti, ha sviluppato un framework che è diventato un benchmark per la gestione del rischio dell'AI. Organizza i rischi di potenziali danni causati dai sistemi AI nelle seguenti categorie:7

  • Danni alle persone
  • Danni a un'organizzazione
  • Danni a un ecosistema

Danni alle persone

Questa categoria include i danni arrecati alle libertà civili, ai diritti, alla sicurezza fisica o psicologica o alle opportunità economiche degli individui. Comprende anche l'impatto sui gruppi attraverso la discriminazione e l'impatto sulle società sotto forma di danni alla partecipazione democratica o all'accesso all'istruzione.

 

Danni a un'organizzazione

Questa categoria si riferisce ai danni alle operazioni di un'organizzazione, ai danni derivanti da violazioni di sicurezza o perdite economiche e ai danni alla sua reputazione.

 

Danni a un ecosistema

Questa categoria comprende i danni a "elementi e risorse interconnessi e interdipendenti". Il NIST cita specificamente i danni al sistema finanziario globale, alla supply chain o ai "sistemi correlati", nonché alle risorse naturali, all'ambiente e al pianeta.

 

Gli output distorti o imprecisi dei sistemi AI possono causare molteplici danni. Tornando a un esempio precedente, i sistemi distorti di tracciamento dei candidati possono danneggiare le opportunità economiche degli individui e anche la reputazione di un'organizzazione. Se un modello linguistico di grandi dimensioni (LLM) viene indotto a eseguire malware che paralizzano le operazioni di un'azienda, ciò potrebbe causare danni sia all'azienda che alla supply chain a cui appartiene.

Sistemi di AI affidabile potrebbero contribuire a prevenire scenari e conseguenze così disastrosi. Secondo il NIST, "i sistemi AI affidabili e il loro uso responsabile possono mitigare i rischi negativi e contribuire a benefici per le persone, le organizzazioni e gli ecosistemi".

 

Framework dell'AI affidabile

Negli ultimi anni sono emersi diversi framework per guidare i fornitori e gli utenti di AI nelle fasi di sviluppo, implementazione e funzionamento di sistemi AI affidabili. Questi framework includono:

 

Il framework di gestione del rischio dell'AI del NIST

Pubblicato nel gennaio 2023, il NIST AI Risk Management Framework (AI RMF) include una panoramica dei rischi dell'AI nei suoi cicli di vita e delle caratteristiche dei sistemi di AI affidabile. Il framework delinea anche azioni specifiche per aiutare le organizzazioni a gestire tali sistemi, comprese attività di test, valutazione, verifica e convalida.

Il framework volontario si applica a qualsiasi azienda o area geografica, ma il NIST riconosce che non tutte le caratteristiche di AI affidabile si applicano in tutti gli ambienti. Il framework incoraggia l'uso del giudizio umano nella scelta delle metriche applicabili e nel considerare che di solito si raggiungono dei compromessi quando si ottimizza per una caratteristica dell'AI affidabile. Nel luglio 2024, il NIST ha lanciato una risorsa complementare all'AI RMF, incentrata sull'AI generativa.

 

I Principi AI dell'Organizzazione per la cooperazione e lo sviluppo economico (OCSE)

I principi dell'OCSE sull'AI promuovono il rispetto dei diritti umani e dei valori democratici nell'uso dell'AI. Adottato a maggio 2019 e aggiornato a maggio 2024, il framework dell'OCSE include sia principi basati sui valori che raccomandazioni per i responsabili politici. L'OCSE promuove le raccomandazioni come i primi standard intergovernativi per l'AI, con 47 adesioni in tutto il mondo, compresi gli Stati Uniti, i paesi dell'Unione europea e quelli di Sud America e Asia.

 

Le linee guida etiche dell'UE per un'intelligenza artificiale affidabile

Le linee guida dell'Unione europea, pubblicate nell'aprile 2019 dall'High-Level Expert Group on AI della Commissione europea, si concentrano sull'etica dell'AI e sottolineano un approccio "incentrato sull'uomo" allo sviluppo dell'AI nell'UE. Le linee guida includevano 7 principi etici, come "l'azione umana e la supervisione" e il "benessere sociale e ambientale". L'anno successivo, il gruppo ha pubblicato l'Assessment List for Trustworthy AI (link esterno a ibm.com), che aiuta le organizzazioni a valutare i propri sistemi AI.

Sebbene le linee guida in sé non siano vincolanti, sono state successivamente citate nella storica Legge sull'IA dell'UE che disciplina lo sviluppo o l'uso dell'intelligenza artificiale nell'Unione Europea. Il testo della legge afferma che i principi etici dell'UE in materia di intelligenza artificiale "dovrebbero essere tradotti, quando possibile, nella progettazione e nell'uso di modelli AI".8

 

Anche altre organizzazioni hanno pubblicato framework e linee guida che incoraggiano un'AI affidabile, tra cui l'Office of Science and Technology della Casa Bianca (attraverso il suo Blueprint for AI Bill of Rights) e aziende come Deloitte (link esterno a ibm.com) e IBM.

 

AI affidabile, AI etica e AI responsabile a confronto

I termini AI affidabile, AI etica e AI responsabile sono spesso usati in modo intercambiabile. E poiché le definizioni di ciascun concetto possono variare a seconda della fonte e includere spesso sovrapposizioni di significato, tracciare distinzioni definitive tra i tre può essere difficile.

Ad esempio, le definizioni comuni di AI affidabile e AI etica elencano principi come equità e privacy come fondamento di ogni concetto. Allo stesso modo, responsabilità e trasparenza sono attributi spesso associati sia a un'AI affidabile che a un'AI responsabile.

Un modo per distinguere tra i tre concetti basati sull'AI è guardare oltre i loro principi fondamentali e concentrarsi invece su come vengono utilizzati:

  • L'AI affidabile è spesso inquadrata come qualcosa che si ottiene; è l'AI affidabile che crea fiducia per gli utenti.
  • L'AI etica, al contrario, è stata descritta come sistemi AI che contengono considerazioni etiche (che riflettono i valori umani e gli standard morali) durante la progettazione e lo sviluppo.
  • L'AI responsabile può essere interpretata come strumento dei mezzi pratici per incorporare tale etica nelle applicazioni e nei workflow di AI.
Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI 


Notizie e insight a cura di esperti di AI, cloud e molto altro nella newsletter settimanale Think. 

Strategie per ottenere un'AI affidabile

Le organizzazioni possono adottare misure importanti per garantire che i loro sistemi AI, compresi gli algoritmi e i set di dati di AI, funzionino in linea con i principi di AI affidabile.

Valutazione: la valutazione dei processi aziendali basati sull'AI può aiutare le aziende a determinare dove c'è margine per migliorare le diverse metriche di affidabilità.

Monitoraggio continuo: attraverso il monitoraggio continuo di problemi come la distorsione dell'AI e la deriva del modello, le organizzazioni affrontano in modo proattivo processi o output ingiusti o imprecisi, sostenendo così equità e affidabilità.

Gestione del rischio: l'implementazione di un framework di gestione del rischio e di strumenti consente di rilevare e minimizzare le violazioni di sicurezza e della privacy per potenziare la solidità dell'AI.

Documentazione: la documentazione automatizzata del ciclo di vita della data science e dell'AI può essere utilizzata per gli audit di settori e normativi, consentendo responsabilità e trasparenza.

Framework di governance dell'AI: i framework di governance dell'AI includono procedure sulla gestione dei dati e dei modelli, che aiutano a garantire che gli sviluppatori e i data scientist all'interno di un'organizzazione seguano sia gli standard interni che le normative del governo.

Il software di governance dell'AI e i toolkit open source possono aiutare le organizzazioni ad adottare queste e altre misure per migliorare l'affidabilità nei loro sistemi di AI. Con le giuste misure e garanzie in atto, le aziende possono ridurre al minimo i rischi sfruttando la potenza dell'AI.

 
Soluzioni correlate
IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Soluzioni di governance dell'AI

Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.

Scopri le soluzioni di governance dell'AI
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Scopri i servizi di governance dell'AI
Prossimi passi

Indirizza, gestisci e monitora l'AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live