Man mano che le aziende fanno sempre più ricorso all'intelligenza artificiale (AI), le persone si chiedono fino a che punto i pregiudizi umani si siano insinuati nei sistemi AI. Esempi di distorsioni dell'AI nel mondo reale ci mostrano che quando dati e algoritmi discriminatori vengono integrati nei modelli AI, i modelli sviluppano distorsioni su larga scala e amplificano gli effetti negativi risultanti.
Le aziende sono motivate ad affrontare la sfida delle distorsioni nell'AI non solo per raggiungere l'equità, ma anche per garantire risultati migliori. Tuttavia, proprio come i pregiudizi sistemici razziali e di genere si sono dimostrati difficili da eliminare nel mondo reale, eliminare le distorsioni nell'AI non è un compito facile.
Nell'articolo, What AI can and can’t do (yet) for your business, gli autori Michael Chui, James Manyika e Mehdi Miremadi di McKinsey hanno osservato: "Tali distorsioni hanno la tendenza a rimanere radicate perché riconoscerle e adottare misure per affrontarle richiede una profonda padronanza delle tecniche di data science, nonché una maggiore meta-comprensione delle forze sociali esistenti, compresa la raccolta dei dati. Nel complesso, la rimozione delle distorsioni si sta rivelando tra gli ostacoli più scoraggianti, e sicuramente tra i più difficili dal punto di vista sociale, fino ad oggi".
Esempi di distorsione dell'AI tratti dalla vita reale forniscono alle organizzazioni utili insight su come identificare e affrontare le distorsioni. Osservando in modo critico questi esempi e i successi nel superare le distorsioni, i data scientist possono iniziare a costruire una roadmap per identificare e prevenire le distorsioni nei loro modelli di machine learning.
La distorsione dell'AI, nota anche come distorsione del machine learning o distorsione degli algoritmi, si riferisce ai sistemi AI che producono risultati distorti che riflettono e perpetuano i pregiudizi umani all'interno di una società, inclusa la disuguaglianza sociale storica e attuale. Le distorsioni si trovano nei dati di addestramento iniziale, nell'algoritmo o nelle previsioni prodotte dall'algoritmo.
Quando le distorsioni non vengono affrontate, ostacolano la capacità delle persone di partecipare all'economia e alla società. Riducono inoltre il potenziale dell'AI. Le aziende non possono trarre beneficio da sistemi che producono risultati distorti e favoriscono la sfiducia tra le persone di colore, le donne, le persone con disabilità, la comunità LGBTQ o altri gruppi di persone emarginate.
L'eliminazione delle distorsioni dell'AI richiede l'analisi approfondita dei set di dati, degli algoritmi di machine learning e di altri elementi dei sistemi AI per identificare le fonti di potenziali distorsioni.
I sistemi AI imparano a prendere decisioni basate sui dati di addestramento, quindi è essenziale valutare i set di dati per la presenza di distorsioni. Un metodo consiste nell'esaminare il campionamento dei dati per i gruppi sovra o sottorappresentati all'interno dei dati di addestramento. Ad esempio, i dati di addestramento per un algoritmo di riconoscimento facciale che rappresenta eccessivamente le persone bianche possono creare errori nel tentativo di riconoscimento facciale per persone di colore. Allo stesso modo, i dati sulla sicurezza che includono informazioni raccolte in aree geografiche a prevalenza nera potrebbero creare distorsioni razziali negli strumenti AI utilizzati dalla polizia.
La distorsione può anche derivare dal modo in cui i dati di addestramento sono etichettati. Ad esempio, gli strumenti di reclutamento con AI che utilizzano un'etichettatura incoerente o escludono o sovrarappresentano determinate caratteristiche potrebbero eliminare dalla considerazione i candidati qualificati.
L'utilizzo di dati di addestramento difettosi può portare ad algoritmi che producono ripetutamente errori, risultati ingiusti o addirittura amplificano la distorsione insita nei dati difettosi. Le distorsioni algoritmiche possono anche essere causate da errori di programmazione, come ad esempio uno sviluppatore che pondera ingiustamente i fattori nel processo decisionale dell'algoritmo in base ai propri pregiudizi consci o inconsci. Ad esempio, indicatori come reddito o vocabolario possono essere utilizzati dall'algoritmo per discriminare involontariamente le persone di una certa razza o sesso.
Quando elaboriamo informazioni ed esprimiamo giudizi, siamo inevitabilmente influenzati dalle nostre esperienze e dalle nostre preferenze. Di conseguenza, le persone possono integrare questi pregiudizi nei sistemi AI attraverso la selezione dei dati o il modo in cui i dati vengono ponderati. Ad esempio, le distorsioni cognitive potrebbero portare a favorire i set di dati raccolti dagli americani piuttosto che il campionamento da una serie di popolazioni in tutto il mondo.
Secondo il NIST, questa fonte di distorsione è più comune di quanto si possa pensare. Nel suo report Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), il NIST ha osservato che "i fattori istituzionali e sociali umani e sistemici sono anche fonti significative di distorsione dell'AI e sono attualmente trascurati. Affrontare con successo questa sfida richiederà di tenere conto di tutte le forme di distorsione. Ciò significa espandere la nostra prospettiva oltre la pipeline di machine learning per riconoscere e studiare come questa tecnologia viene creata all'interno della nostra società e influisce su di essa".
Man mano che la società diventa più consapevole del funzionamento dell'AI e della possibilità di distorsioni, le organizzazioni hanno scoperto numerosi esempi di distorsioni di alto profilo nell'AI in un'ampia gamma di casi d'uso.
L'identificazione e la risoluzione delle distorsioni nell'AI iniziano con la governance dell'AI, o la capacità di dirigere, gestire e monitorare le attività di AI di un'organizzazione. In pratica, la governance dell'AI crea una serie di politiche, pratiche e framework per guidare lo sviluppo e l'uso responsabile delle tecnologie AI. Se fatta bene, la governance dell'AI assicura un equilibrio di benefici per le aziende, i clienti, i dipendenti e la società nel suo complesso.
Attraverso le politiche di governance dell'AI, le aziende possono costruire le seguenti pratiche:
Un corretto mix di tecnologie può essere fondamentale per una strategia efficace di governance dei dati e dell'AI, con un'architettura dei dati moderna e una piattaforma AI affidabile come componenti chiave. L'orchestrazione delle policy all'interno di un'architettura di data fabric è uno strumento eccellente in grado di semplificare i complessi processi di audit dell'AI. Integrando l'audit dell'AI e i processi correlati nelle politiche di governance dell'architettura dei dati, la tua organizzazione può comprendere meglio le aree che richiedono un'ispezione continua.
Noi di IBM Consulting abbiamo aiutato i clienti a impostare un processo di valutazione per le distorsioni e altre aree. Man mano che l'adozione dell'AI si espande e le innovazioni si evolvono, matureranno anche le linee guida sulla sicurezza, come nel caso di ogni tecnologia che è stata incorporata nel tessuto di un'azienda nel corso degli anni. Di seguito, condividiamo alcune best practice di IBM per aiutare le organizzazioni a prepararsi per l'implementazione sicura dell'AI nei loro ambienti:
Scopri cosa può fare per te watson.governance