My IBM Accedi Iscriviti

Far luce sulle distorsione dell'AI con esempi del mondo reale

16 ottobre 2023

Tempo di lettura: 6 minuti

Autore

IBM Data and AI Team

Man mano che le aziende fanno sempre più ricorso all'intelligenza artificiale (AI), le persone si chiedono fino a che punto i pregiudizi umani si siano insinuati nei sistemi AI. Esempi di distorsioni dell'AI nel mondo reale ci mostrano che quando dati e algoritmi discriminatori vengono integrati nei modelli AI, i modelli sviluppano distorsioni su larga scala e amplificano gli effetti negativi risultanti.

Le aziende sono motivate ad affrontare la sfida delle distorsioni nell'AI non solo per raggiungere l'equità, ma anche per garantire risultati migliori. Tuttavia, proprio come i pregiudizi sistemici razziali e di genere si sono dimostrati difficili da eliminare nel mondo reale, eliminare le distorsioni nell'AI non è un compito facile.

Nell'articolo, What AI can and can’t do (yet) for your business, gli autori Michael Chui, James Manyika e Mehdi Miremadi di McKinsey osservano: "Tali distorsioni hanno la tendenza a rimanere radicate, perché riconoscerle e adottare misure per affrontarle richiede una profonda padronanza delle tecniche di data science, nonché una maggiore meta-comprensione delle forze sociali esistenti, compresa la raccolta dei dati. Nel complesso, la rimozione delle distorsioni si sta rivelando uno degli ostacoli finora più scoraggianti e, sicuramente, tra i più difficili dal punto di vista sociale".

Esempi di distorsione dell'AI tratti dalla vita reale forniscono alle organizzazioni utili insight su come identificare e affrontare le distorsioni. Osservando in modo critico questi esempi e i successi nel superare le distorsioni, i data scientist possono iniziare a costruire una roadmap per identificare e prevenire le distorsioni nei loro modelli di machine learning.

Che cos'è il bias nell'intelligenza artificiale?

La distorsione dell'AI, nota anche come distorsione del machine learning o distorsione degli algoritmi, si riferisce ai sistemi AI che producono risultati distorti che riflettono e perpetuano i pregiudizi umani all'interno di una società, inclusa la disuguaglianza sociale storica e attuale. Le distorsioni, o bias, si trovano nei dati di addestramento iniziale, nell'algoritmo o nelle previsioni prodotte dall'algoritmo.

Quando le distorsioni non vengono affrontate, ostacolano la capacità delle persone di partecipare all'economia e alla società. Riducono inoltre il potenziale dell'AI. Le aziende non possono trarre beneficio da sistemi che producono risultati distorti e favoriscono la sfiducia tra le persone di colore, le donne, le persone con disabilità, la comunità LGBTQ o altri gruppi di persone emarginate.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

La fonte delle distorsioni nell'AI

L'eliminazione delle distorsioni dell'AI richiede l'analisi approfondita dei set di dati, degli algoritmi di machine learning e di altri elementi dei sistemi AI per identificare le fonti di potenziali distorsioni.

Distorsione dei dati di addestramento

I sistemi AI imparano a prendere decisioni basate sui dati di addestramento, quindi è essenziale valutare i set di dati per la presenza di distorsioni. Un metodo consiste nell'esaminare il campionamento dei dati per i gruppi sovra o sottorappresentati all'interno dei dati di addestramento. Ad esempio, i dati di addestramento per un algoritmo di riconoscimento facciale che rappresenta eccessivamente le persone bianche possono creare errori nel tentativo di riconoscimento facciale per persone di colore. Allo stesso modo, i dati sulla sicurezza che includono informazioni raccolte in aree geografiche a prevalenza nera potrebbero creare distorsioni razziali negli strumenti AI utilizzati dalla polizia.

La distorsione può anche derivare dal modo in cui i dati di addestramento sono etichettati. Ad esempio, gli strumenti di reclutamento con AI che utilizzano un'etichettatura incoerente o escludono o sovrarappresentano determinate caratteristiche potrebbero eliminare dalla considerazione i candidati qualificati.

Distorsione algoritmica

L'utilizzo di dati di addestramento difettosi può portare ad algoritmi che producono ripetutamente errori, risultati ingiusti o addirittura amplificano la distorsione insita nei dati difettosi. Le distorsioni algoritmiche possono anche essere causate da errori di programmazione, come ad esempio uno sviluppatore che pondera ingiustamente i fattori nel processo decisionale dell'algoritmo in base ai propri pregiudizi consci o inconsci. Ad esempio, indicatori come reddito o vocabolario possono essere utilizzati dall'algoritmo per discriminare involontariamente le persone di una certa razza o sesso.

Distorsione cognitiva

Quando elaboriamo informazioni ed esprimiamo giudizi, siamo inevitabilmente influenzati dalle nostre esperienze e dalle nostre preferenze. Di conseguenza, le persone possono integrare questi pregiudizi nei sistemi AI attraverso la selezione dei dati o il modo in cui i dati vengono ponderati. Ad esempio, le distorsioni cognitive potrebbero portare a favorire i set di dati raccolti dagli americani piuttosto che il campionamento da una serie di popolazioni in tutto il mondo.

Secondo il NIST, questa fonte di bias è più comune di quanto si possa pensare. Nel suo report Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), il NIST ha osservato che "i fattori istituzionali e sociali umani e sistemici sono anche fonti significative di distorsione dell'AI e sono attualmente trascurati. Per affrontare con successo questa sfida bisognerà tenere conto di tutte le forme di distorsione. Ciò significa espandere la nostra prospettiva oltre la pipeline di machine learning per riconoscere e studiare come questa tecnologia viene creata all'interno della nostra società e influisce su di essa".

Esempi di distorsione dell'AI nella vita reale

Man mano che la società diventa più consapevole del funzionamento dell'AI e della possibilità di distorsioni, le organizzazioni hanno scoperto numerosi esempi di distorsioni di alto profilo nell'AI in un'ampia gamma di casi d'uso.

  • Sanità: i dati sottorappresentati di donne o gruppi minoritari possono distorcere gli algoritmi di AI predittiva. Ad esempio, è stato riscontrato che i sistemi di diagnosi assistita da computer (CAD) restituiscono risultati di accuratezza inferiore per i pazienti neri rispetto ai pazienti bianchi.
  • Sistemi di tracciamento dei candidati: i problemi con gli algoritmi di elaborazione del linguaggio naturale possono produrre risultati distorti all'interno dei sistemi di tracciamento dei candidati. Ad esempio, Amazon ha smesso di utilizzare un algoritmo di assunzione dopo avere scoperto che favoriva i candidati in base a parole come "executed" (eseguito) o "captured" (acquisito), che si trovavano più comunemente nei curriculum degli uomini.
  • Pubblicità online: le distorsioni negli algoritmi pubblicitari dei motori di ricerca possono rafforzare i bias di genere relativi al ruolo professionale. Una ricerca indipendente della Carnegie Mellon University di Pittsburgh ha rivelato che il sistema pubblicitario online di Google mostrava posizioni ben pagate agli uomini più spesso che alle donne.
  • Generazione di immagini:una ricerca accademica ha rilevato distorsioni in Midjourney, un'applicazione per la creazione di arte tramite l'AI generativa. Quando è stato chiesto di creare immagini di persone che svolgono professioni specializzate, ha mostrato sia giovani che anziani, tuttavia gli anziani erano sempre uomini, rafforzando quindi il bias di genere sul ruolo delle donne nell'ambiente lavorativo.
  • Strumenti di polizia predittiva: gli strumenti di predictive policing, o polizia predittiva, con tecnologia AI, utilizzati da alcune organizzazioni del sistema di giustizia penale, dovrebbero identificare le aree in cui è probabile che si verifichino i reati. Tuttavia, spesso si basano su dati storici sugli arresti, che possono rafforzare i pattern esistenti di profilazione razziale e prendere di mira in modo sproporzionato le comunità minoritarie.

Riduzione delle distorsioni e governance dell'AI

L'identificazione e la risoluzione delle distorsioni nell'AI iniziano con la governance dell'AI, o la capacità di dirigere, gestire e monitorare le attività di AI di un'organizzazione. In pratica, la governance dell'AI crea una serie di politiche, pratiche e framework per guidare lo sviluppo e l'uso responsabile delle tecnologie AI. Se fatta bene, la governance dell'AI assicura un equilibrio di benefici per le aziende, i clienti, i dipendenti e la società nel suo complesso.

Attraverso le politiche di governance dell'AI, le aziende possono costruire le seguenti pratiche:

  • Conformità: le soluzioni AI e le decisioni relative all'AI devono essere coerenti con le normative di settore e i requisiti legali.
  • Fiducia: le aziende che lavorano per proteggere le informazioni dei clienti creano fiducia nel marchio e sono più propense a creare sistemi AI affidabili.
  • Trasparenza: a causa della complessità dell'AI, un algoritmo può essere un sistema black box, con pochi insight sui dati utilizzati per crearlo. La trasparenza aiuta a garantire che i dati imparziali vengano utilizzati per costruire il sistema e che i risultati siano equi.
  • Efficienza: una delle maggiori promesse dell'intelligenza artificiale è la riduzione del lavoro manuale, con conseguenti risparmi di tempo per i dipendenti. L'AI deve essere progettata per aiutare a raggiungere gli obiettivi aziendali, migliorare i tempi di commercializzazione e ridurre i costi.
  • Correttezza: la governance dell'AI include spesso metodi che mirano a valutare la correttezza, l'equità e l'inclusione. Approcci come la correttezza controfattuale identificano le distorsioni nelle decisioni di un modello e garantiscono risultati equi anche quando vengono modificati gli attributi sensibili, come il sesso, la razza o l'orientamento sessuale.
  • Tocco umano: processi come il sistema "human-in-the-loop" offrono opzioni o formulano raccomandazioni che vengono poi esaminate dagli esseri umani prima di prendere una decisione per fornire un altro livello di garanzia della qualità.
  • Apprendimento rinforzato: questa tecnica di apprendimento senza supervisione utilizza ricompense e punizioni per insegnare a un sistema ad apprendere dei compiti. McKinsey fa notare che l'apprendimento rinforzato trascende i pregiudizi umani e ha il potenziale di produrre "soluzioni e strategie precedentemente inimmaginabili che anche i professionisti esperti non avrebbero mai potuto prendere in considerazione".

Distorsioni, AI e IBM

Un corretto mix di tecnologie può essere fondamentale per una strategia efficace di governance dei dati e dell'AI, con un'architettura dei dati moderna e un'AI affidabile quali componenti chiave. L'orchestrazione delle policy all'interno di un'architettura di data fabric è uno strumento eccellente, in grado di semplificare i complessi processi di audit dell'AI. Integrando l'audit dell'AI e i processi correlati nelle politiche di governance dell'architettura dei dati, la tua organizzazione può comprendere meglio le aree che richiedono un'ispezione continua.

Noi di IBM Consulting abbiamo aiutato i clienti a impostare un processo di valutazione per le distorsioni e altre aree. Man mano che l'adozione dell'AI si espande e le innovazioni si evolvono, matureranno anche le linee guida sulla sicurezza, come nel caso di ogni tecnologia che è stata incorporata nel tessuto di un'azienda nel corso degli anni. Di seguito, condividiamo alcune best practice di IBM per aiutare le organizzazioni a prepararsi per l'implementazione sicura dell'AI nei loro ambienti:

  1. Sfrutta l'AI affidabile valutando le politiche e le pratiche dei fornitori.
  2. Consentire l'accesso sicuro a utenti, modelli e dati.
  3. Proteggere i modelli AI, i dati e l'infrastruttura dagli attacchi avversari.
  4. Implementare la protezione della privacy dei dati nelle fasi di addestramento, test e operazioni.
  5. Conduci la modellazione delle minacce e le pratiche di codifica sicura nel ciclo di vita dello sviluppo dell'AI.
  6. Eseguire il rilevamento e la risposta alle minacce per le applicazioni e l'infrastruttura AI.
  7. Valutare e decidere la maturità dell'AI attraverso il framework IBM per l'AI.
 
Soluzioni correlate

Soluzioni correlate

IBM watsonx.governanceâ„¢

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Esplora i servizi di governance per l'AI
IBM OpenPages

Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.

Esplora OpenPages
Fai il passo successivo

Indirizza, gestisci e monitora la tua AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live