Il bias AI, chiamato anche bias del machine learning o bias dell'algoritmo, si riferisce al verificarsi di risultati distorti a causa di pregiudizi umani che alterano i dati di addestramento originali o l'algoritmo AI, portando a output distorti e potenzialmente dannosi.
Se le distorsioni dell'AI non vengono risolte, possono influire sul successo di un'organizzazione e ostacolare la capacità delle persone di partecipare all'economia e alla società. Le distorsioni riducono l'accuratezza dell'AI e quindi il suo potenziale.
È più difficile, per le aziende, trarre vantaggio da sistemi che producono risultati distorti. Inoltre, gli scandali derivanti da casi di distorsioni dell'AI potrebbero alimentare la sfiducia tra le persone di colore, le donne, le persone con disabilità, la comunità LGBTQ o altri gruppi di persone emarginate.
I modelli su cui si basano le iniziative di AI assorbono i pregiudizi della società che possono essere silenziosamente incorporati nell'enorme quantità di dati su cui vengono addestrati. Una raccolta di dati influenzata nel tempo da distorsioni, che riflette le disuguaglianze sociali, può danneggiare i gruppi storicamente emarginati in casi come assunzioni, controlli di polizia, valutazioni del credito e molti altri. Secondo il Wall Street Journal, "Con l'aumento della diffusione dell'intelligenza artificiale, le aziende continuano a lottare per affrontare le distorsioni pervasive".1
Quando l'AI commette errori a causa di distorsioni, ad esempio, negando opportunità a determinati gruppi di persone, identificandole erroneamente nelle foto o punendole ingiustamente, l'organizzazione responsabile subisce danni al proprio brand e alla propria reputazione. Allo stesso tempo, le persone di quei gruppi e la società nel suo complesso possono subire danni senza nemmeno rendersene conto. Di seguito, alcuni esempi noti di disparità e distorsioni nell'AI e dei danni che possono causare.
Nel settore sanitario, la mancanza di dati sufficienti su donne o gruppi minoritari può influenzare negativamente gli algoritmi predittivi dell'AI.2 Ad esempio, è stato riscontrato che i sistemi di diagnosi assistita da computer (CAD) restituiscono risultati di accuratezza inferiore per i pazienti afroamericani rispetto ai pazienti bianchi.
Sebbene gli strumenti di intelligenza artificiale possano semplificare l'automazione della scansione dei curriculum durante una ricerca per aiutare a identificare i candidati ideali, informazioni richieste e risposte scartate possono dare luogo a risultati sproporzionati tra i gruppi. Ad esempio, se un annuncio di lavoro utilizza la parola "ninja", potrebbe attrarre più uomini che donne, anche se questo non è in alcun modo un requisito lavorativo.3
Come test sulla generazione di immagini, Bloomberg ha richiesto la creazione di oltre 5.000 immagini di AI e ha scoperto che "il mondo, secondo Stable Diffusion, è gestito da CEO maschi bianchi. Le donne sono raramente medici, avvocati o giudici. Gli uomini neri commettono crimini, mentre le donne nere grigliano hamburger".4 Midjourney ha condotto uno studio simile sulla generazione di opere d'arte tramite l'AI, richiedendo immagini di persone che svolgono professioni specializzate. Il risultato ha mostrato sia giovani che anziani, ma gli anziani erano sempre uomini, rafforzando le distorsioni di genere sul ruolo delle donne sul posto di lavoro.5
Gli strumenti di polizia predittiva con tecnologia AI utilizzati da alcune organizzazioni del sistema di giustizia penale dovrebbero identificare le aree in cui è probabile che si verifichino reati. Tuttavia, spesso si basano su dati storici sugli arresti, che possono rafforzare i modelli esistenti di profilazione razziale e prendere di mira in modo sproporzionato le comunità minoritarie.6
Risultati distorti possono danneggiare le organizzazioni e la società in generale. Ecco alcuni dei tipi più comuni di bias AI7:
Bias di omogeneità dell'out-group: si verifica quando "non si conosce ciò che non si conosce". C'è la tendenza, da parte delle persone, ad avere una migliore comprensione dei membri del proprio ingroup (il gruppo a cui si appartiene) e a pensare che siano più diversi rispetto ai membri dell'outgroup. Il risultato potrebbe essere la creazione di algoritmi meno capaci di distinguere tra individui che non fanno parte del gruppo di maggioranza nei dati di addestramento, portando a pregiudizi razziali, classificazioni sbagliate e risposte errate.
Il primo passo per evitare la trappola delle distorsioni è fare un passo indietro all'inizio e riflettere su un progetto di AI prima di attuarlo. Come accade per quasi tutte le sfide aziendali, i problemi sono molto più facili da risolvere fin da subito, piuttosto che aspettare che si verifichi un disastro e poi cercare di sistemare i danni. Ma molte organizzazioni hanno fretta di portare a termine i propri progetti: risparmiano sulle piccole cose e poi pagano il prezzo sulle cose più grandi.
L'identificazione e la risoluzione delle distorsioni nell'AI richiedono una governance dell'AI, ovvero la capacità di dirigere, gestire e monitorare le attività di AI di un'organizzazione. In pratica, la governance dell'AI crea una serie di politiche, pratiche e framework per guidare lo sviluppo e l'uso responsabile delle tecnologie AI. Se applicata nel modo corretto, la governance dell'AI aiuta a garantire un equilibrio di vantaggi per le aziende, i clienti, i dipendenti e la società nel suo complesso.
La governance dell'AI include spesso metodi che mirano a valutare la correttezza, l'equità e l'inclusione. Approcci come la correttezza controfattuale identificano le distorsioni nel processo decisionale di un modello e garantiscono risultati equi, anche quando sono inclusi attributi sensibili, come il genere, la razza o l'orientamento sessuale.
A causa della complessità dell'AI, un algoritmo può essere un sistema black box, con una scarsa conoscenza dei dati utilizzati per crearlo. Le pratiche e le tecnologie di trasparenza aiutano a garantire che vengano utilizzati dati imparziali per costruire il sistema e che i risultati siano equi. Le aziende che lavorano per proteggere le informazioni dei clienti creano fiducia nel brand e sono più propense a creare sistemi AI affidabili.
Per fornire un ulteriore livello di garanzia della qualità, è possibile istituire un sistema "human-in-the-loop" per offrire opzioni o fare raccomandazioni che possano poi essere approvate da decisioni umane.
Ecco una lista di controllo che include sei passaggi che possono aiutare a mantenere i programmi di AI privi di distorsioni.
1. Seleziona il modello di apprendimento corretto:
2. Addestra utilizzando i dati giusti: modelli di machine learning addestrati sui dati sbagliati produrranno risultati errati. Qualunque dato venga immesso nell'AI deve essere completo e bilanciato per replicare i dati demografici reali del gruppo in esame.
3. Scegli un team equilibrato: quanto più vario è il team di AI (per razza, economia, livello di istruzione, genere e descrizione del lavoro), tanto più è probabile che riconosca i pregiudizi. I talenti e i punti di vista di un team di AI ben equilibrato dovrebbero includere innovatori nel campo dell'AI, creatori di AI, implementatori di AI e una rappresentanza dei consumatori di quel particolare progetto di AI.9
4. Elabora i dati con attenzione: le aziende devono essere consapevoli di eventuali distorsioni in ogni fase del trattamento dei dati. Il rischio non riguarda solo la selezione dei dati: le distorsioni possono insinuarsi in qualunque momento durante la pre-elaborazione, l'elaborazione o la post-elaborazione, e immettersi nell'AI.
5. Effettua un monitoraggio continuo: nessun modello è mai completo o permanente. Monitoraggi e test continui con dati reali provenienti dall'intera organizzazione possono aiutare a rilevare e correggere le distorsioni prima che causino danni. Per evitare ulteriori distorsioni, le organizzazioni dovrebbero considerare la possibilità di effettuare valutazioni tramite un team indipendente all'interno dell'organizzazione o soggetti terzi affidabili.
6. Evita i problemi infrastrutturali: oltre l'influenza delle persone e dei dati, a volte l'infrastruttura stessa può causare distorsioni. Ad esempio, utilizzando dati raccolti da sensori meccanici, l'attrezzatura stessa potrebbe introdurre distorsioni se i sensori non funzionano correttamente. Questo tipo di distorsione può essere difficile da rilevare e richiede investimenti nelle più recenti infrastrutture digitali e tecnologiche.
Impara come l’AI Act dell’UE influenzerà le imprese, come prepararti, come mitigare i rischi e come bilanciare regolamentazione e innovazione.
Scopri le nuove sfide dell’AI generativa, la necessità di governare i modelli AI e machine learning (ML) e le fasi per creare un framework AI affidabile, trasparente e spiegabile.
Scopri come promuovere pratiche etiche e conformi con un portfolio di prodotti AI per modelli di AI generativa.
Acquisisci una comprensione più approfondita su come garantire l’equità, gestire la deriva, mantenere la qualità e migliorare la spiegabilità con watsonx.governance.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.
1 The Wall Street Journal: Rise of AI Puts Spotlight on Bias in Algorithms
2 Booz Allen Hamilton: Artificial Intelligence Bias in Healthcare
3 LinkedIn: Reducing AI Bias — A Guide for HR Leaders
4 Bloomberg: Humans Are Biased. Generative AI Is Even Worse
5 The Conversation US: Ageism, sexism, classism and more — 7 examples of bias in AI-generated images
6 Technology Review: Predictive policing is still racist—whatever data it uses
7 Tech Target: Machine learning bias (AI bias)
Chapman University AI Hub: Bias in AI
AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023
8 McKinsey: Tackling bias in artificial intelligence (and in humans)
9 Forbes: The Problem With Biased AIs (and How To Make AI Better)
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com