Man mano che le aziende fanno sempre più ricorso all'intelligenza artificiale (AI), le persone si chiedono fino a che punto i pregiudizi umani si siano insinuati nei sistemi AI. Esempi di distorsioni dell'AI nel mondo reale ci mostrano che quando dati e algoritmi discriminatori vengono integrati nei modelli AI, i modelli sviluppano distorsioni su larga scala e amplificano gli effetti negativi risultanti.
Le aziende sono motivate ad affrontare la sfida delle distorsioni nell'AI non solo per raggiungere l'equità , ma anche per garantire risultati migliori. Tuttavia, proprio come i pregiudizi sistemici razziali e di genere si sono dimostrati difficili da eliminare nel mondo reale, eliminare le distorsioni nell'AI non è un compito facile.
Nell'articolo, What AI can and can’t do (yet) for your business, gli autori Michael Chui, James Manyika e Mehdi Miremadi di McKinsey osservano: "Tali distorsioni hanno la tendenza a rimanere radicate, perché riconoscerle e adottare misure per affrontarle richiede una profonda padronanza delle tecniche di data science, nonché una maggiore meta-comprensione delle forze sociali esistenti, compresa la raccolta dei dati. Nel complesso, la rimozione delle distorsioni si sta rivelando uno degli ostacoli finora più scoraggianti e, sicuramente, tra i più difficili dal punto di vista sociale".
Esempi di distorsione dell'AI tratti dalla vita reale forniscono alle organizzazioni utili insight su come identificare e affrontare le distorsioni. Osservando in modo critico questi esempi e i successi nel superare le distorsioni, i data scientist possono iniziare a costruire una roadmap per identificare e prevenire le distorsioni nei loro modelli di machine learning.
La distorsione dell'AI, nota anche come distorsione del machine learning o distorsione degli algoritmi, si riferisce ai sistemi AI che producono risultati distorti che riflettono e perpetuano i pregiudizi umani all'interno di una società , inclusa la disuguaglianza sociale storica e attuale. Le distorsioni, o bias, si trovano nei dati di addestramento iniziale, nell'algoritmo o nelle previsioni prodotte dall'algoritmo.
Quando le distorsioni non vengono affrontate, ostacolano la capacità delle persone di partecipare all'economia e alla società . Riducono inoltre il potenziale dell'AI. Le aziende non possono trarre beneficio da sistemi che producono risultati distorti e favoriscono la sfiducia tra le persone di colore, le donne, le persone con disabilità , la comunità LGBTQ o altri gruppi di persone emarginate.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
L'eliminazione delle distorsioni dell'AI richiede l'analisi approfondita dei set di dati, degli algoritmi di machine learning e di altri elementi dei sistemi AI per identificare le fonti di potenziali distorsioni.
I sistemi AI imparano a prendere decisioni basate sui dati di addestramento, quindi è essenziale valutare i set di dati per la presenza di distorsioni. Un metodo consiste nell'esaminare il campionamento dei dati per i gruppi sovra o sottorappresentati all'interno dei dati di addestramento. Ad esempio, i dati di addestramento per un algoritmo di riconoscimento facciale che rappresenta eccessivamente le persone bianche possono creare errori nel tentativo di riconoscimento facciale per persone di colore. Allo stesso modo, i dati sulla sicurezza che includono informazioni raccolte in aree geografiche a prevalenza nera potrebbero creare distorsioni razziali negli strumenti AI utilizzati dalla polizia.
La distorsione può anche derivare dal modo in cui i dati di addestramento sono etichettati. Ad esempio, gli strumenti di reclutamento con AI che utilizzano un'etichettatura incoerente o escludono o sovrarappresentano determinate caratteristiche potrebbero eliminare dalla considerazione i candidati qualificati.
L'utilizzo di dati di addestramento difettosi può portare ad algoritmi che producono ripetutamente errori, risultati ingiusti o addirittura amplificano la distorsione insita nei dati difettosi. Le distorsioni algoritmiche possono anche essere causate da errori di programmazione, come ad esempio uno sviluppatore che pondera ingiustamente i fattori nel processo decisionale dell'algoritmo in base ai propri pregiudizi consci o inconsci. Ad esempio, indicatori come reddito o vocabolario possono essere utilizzati dall'algoritmo per discriminare involontariamente le persone di una certa razza o sesso.
Quando elaboriamo informazioni ed esprimiamo giudizi, siamo inevitabilmente influenzati dalle nostre esperienze e dalle nostre preferenze. Di conseguenza, le persone possono integrare questi pregiudizi nei sistemi AI attraverso la selezione dei dati o il modo in cui i dati vengono ponderati. Ad esempio, le distorsioni cognitive potrebbero portare a favorire i set di dati raccolti dagli americani piuttosto che il campionamento da una serie di popolazioni in tutto il mondo.
Secondo il NIST, questa fonte di bias è più comune di quanto si possa pensare. Nel suo report Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), il NIST ha osservato che "i fattori istituzionali e sociali umani e sistemici sono anche fonti significative di distorsione dell'AI e sono attualmente trascurati. Per affrontare con successo questa sfida bisognerà tenere conto di tutte le forme di distorsione. Ciò significa espandere la nostra prospettiva oltre la pipeline di machine learning per riconoscere e studiare come questa tecnologia viene creata all'interno della nostra società e influisce su di essa".
Man mano che la società diventa più consapevole del funzionamento dell'AI e della possibilità di distorsioni, le organizzazioni hanno scoperto numerosi esempi di distorsioni di alto profilo nell'AI in un'ampia gamma di casi d'uso.
L'identificazione e la risoluzione delle distorsioni nell'AI iniziano con la governance dell'AI, o la capacità di dirigere, gestire e monitorare le attività di AI di un'organizzazione. In pratica, la governance dell'AI crea una serie di politiche, pratiche e framework per guidare lo sviluppo e l'uso responsabile delle tecnologie AI. Se fatta bene, la governance dell'AI assicura un equilibrio di benefici per le aziende, i clienti, i dipendenti e la società nel suo complesso.
Attraverso le politiche di governance dell'AI, le aziende possono costruire le seguenti pratiche:
Un corretto mix di tecnologie può essere fondamentale per una strategia efficace di governance dei dati e dell'AI, con un'architettura dei dati moderna e un'AI affidabile quali componenti chiave. L'orchestrazione delle policy all'interno di un'architettura di data fabric è uno strumento eccellente, in grado di semplificare i complessi processi di audit dell'AI. Integrando l'audit dell'AI e i processi correlati nelle politiche di governance dell'architettura dei dati, la tua organizzazione può comprendere meglio le aree che richiedono un'ispezione continua.
Noi di IBM Consulting abbiamo aiutato i clienti a impostare un processo di valutazione per le distorsioni e altre aree. Man mano che l'adozione dell'AI si espande e le innovazioni si evolvono, matureranno anche le linee guida sulla sicurezza, come nel caso di ogni tecnologia che è stata incorporata nel tessuto di un'azienda nel corso degli anni. Di seguito, condividiamo alcune best practice di IBM per aiutare le organizzazioni a prepararsi per l'implementazione sicura dell'AI nei loro ambienti:
Impara come l’AI Act dell’UE influenzerà le imprese, come prepararti, come mitigare i rischi e come bilanciare regolamentazione e innovazione.
Scopri le nuove sfide dell’AI generativa, la necessità di governare i modelli AI e machine learning (ML) e le fasi per creare un framework AI affidabile, trasparente e spiegabile.
Scopri come promuovere pratiche etiche e conformi con un portfolio di prodotti AI per modelli di AI generativa.
Acquisisci una comprensione più approfondita su come garantire l’equità , gestire la deriva, mantenere la qualità e migliorare la spiegabilità con watsonx.governance.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io