Che cos'è l'AI Bill of Rights?

Immagine concettuale che utilizza la mano per toccare lo schermo

Autori

Tom Krantz

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Che cos'è l'AI Bill of Rights?

L'AI Bill of Rights è un framework pubblicato dal governo degli Stati Uniti per aiutare a proteggere i diritti civili degli statunitensi nell'era dell'intelligenza artificiale (AI).

L'AI Bill of Rights è stata introdotta nell'ottobre 2022 dall'Office of Science and Technology Policy (OSTP) della Casa Bianca in un documento intitolato "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People". Nota anche come Blueprint, l'AI Bill of Rights è stata creata dopo aver consultato vari accademici, gruppi per i diritti umani, organizzazioni non profit e aziende del settore privato.

L'AI Bill of Rights ha lo scopo di sostenere lo sviluppo di politiche e pratiche che proteggano i diritti civili e promuovano i valori democratici nella distribuzione e nella governance dei sistemi automatizzati. Per raggiungere questo obiettivo, il blueprint stabilisce cinque principi per mitigare i potenziali rischi, come la discriminazione algoritmica. Inoltre, tratta i problemi di accesso a risorse critiche che possono derivare dall'implementazione dell'AI in aree come l'assistenza sanitaria, i servizi finanziari e altre ancora.

L' AI Bill of Rights è composto da cinque principi fondamentali per aiutare a tracciare la progettazione, l'uso e l'implementazione dei sistemi di AI. Ogni principio fornisce considerazioni specifiche, tenendo conto di varie situazioni in cui i diritti civili delle persone, come la libertà di parola, il diritto di voto o la privacy, possono essere a rischio.

Sebbene il blueprint non sia vincolante e non imponga l'osservanza dei principi fondamentali, è destinato a informare le decisioni politiche relative all'AI laddove la legge o la politica esistente non forniscano già una guida.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

A quali sistemi AI si applica l'AI Bill of Rights?

L'AI Bill of Rights si applica ai sistemi automatizzati se hanno il potenziale di avere un impatto significativo sui diritti, sulle opportunità o sull'accesso a risorse o servizi critici dei cittadini statunitensi. I tipi di sistemi automatizzati che potenzialmente rientrano nell'ambito dell'AI Bill of Rights includono, a titolo di esempio, quelli che possono avere un impatto su:

Diritti civili, libertà e privacy: questo ambito comprende sistemi legati alla comunicazione (ad esempio, strumenti di moderazione automatizzata dei contenuti); algoritmi dei sistemi di sorveglianza e giustizia penale (come i lettori automatici di targhe); sistemi legati al voto (ad esempio, strumenti per il confronto delle firme); e sistemi con un potenziale impatto sulla privacy (come quelli per il targeting pubblicitario).

Pari opportunità: questo ambito comprende sistemi legati all’istruzione (ad esempio, software per il rilevamento del plagio); sistemi legati al settore abitativo (come algoritmi per la selezione degli inquilini); e sistemi legati all’occupazione (ad esempio, algoritmi per l’assunzione o il licenziamento).

Accesso a risorse critiche e servizi:  include tecnologie sanitarie e di assicurazione sanitaria (ad esempio, strumenti diagnostici assistiti dall'AI); algoritmi di sistemi finanziari (ad esempio, sistemi di credit scoring); sistemi che riguardano la sicurezza delle comunità (ad esempio, controlli della rete elettrica); e sistemi relativi all'accesso a vantaggi o servizi o all'assegnazione di sanzioni (ad esempio, algoritmi di rilevamento delle frodi).

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell'AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Perché l'AI Bill of Rights è importante?

I casi d'uso dell'AI aumentano man mano che tecnologie come il machine learning (ML) e l' elaborazione del linguaggio naturale (NLP) diventano più sofisticate. In uno studio di Ernst and Young, il 90% dei rispondenti ha dichiarato di utilizzare l'AI sul lavoro.Tuttavia, l'adozione diffusa dell'AI comporta anche nuove sfide etiche legate alla trasparenza, alle distorsioni e alla privacy dei dati. Ad esempio:

  • Il software di riconoscimento facciale (FRS) utilizzato dalle forze dell'ordine può essere soggetto a distorsioni. I ricercatori hanno già confermato diversi casi di errata identificazione dovuti all'intelligenza artificiale, la maggior parte dei quali ha riguardato persone di colore che sono state accusate ingiustamente.2

  • Le allucinazioni dell'AI si verificano quando un sistema automatico interpreta erroneamente una tendenza e produce una risposta insensata o imprecisa. In un caso, i ricercatori hanno chiesto a ChatGPT di fornire informazioni sulla patogenesi di due malattie. L'AI ha fornito un documento completo con citazioni e ID PubMed. Dopo la verifica delle informazioni, i ricercatori hanno scoperto che i documenti sono stati generati e che gli ID sono stati estratti da altri documenti.3

  • In uno studio IBM sui dirigenti di vertici aziendali, solo il 24% dei progetti di AI di attuale generazione ha una componente per proteggere le iniziative. Quasi il 70% degli intervistati, infatti, ha affermato che l'innovazione ha la precedenza sulla sicurezza.

Per affrontare queste sfide, gli sviluppatori di AI hanno bisogno di guide e framework etici realizzati sulla base dell'uso responsabile dell'AI. L'AI responsabile è un insieme di principi utilizzati per guidare la progettazione, lo sviluppo, l'implementazione e l'uso dell'AI. Considera l'impatto sociale più generale dei sistemi AI, nonché le misure necessarie per allineare l'AI ai valori, agli standard giuridici e ai principi etici degli stakeholder.

Il blueprint cerca di definire le best practice di AI responsabile in un framework completo, in modo che la società possa sfruttare il pieno potenziale degli strumenti di AI senza compromettere le libertà civili di base delle persone.

I cinque principi dell'AI Bill of Rights

L'AI Bill of Rights è costituita da cinque principi concepiti in funzione dei diritti civili dei cittadini americani. I cinque principi includono:

  • Sistemi sicuri ed efficaci
  • Protezioni contro la discriminazione algoritmica
  • Riservatezza dei dati
  • Avviso e spiegazione
  • Alternative umane, considerazione e fallback

Sistemi sicuri ed efficaci

Questo principio afferma che le persone "dovrebbero essere protette da sistemi AI non sicuri o inefficaci". Per allinearsi a questo principio, il Blueprint suggerisce agli sviluppatori di lavorare insieme a vari stakeholder, esperti di domini e community per considerare i rischi di un sistema AI. Il principio suggerisce inoltre che i sistemi vengano sottoposti a test di pre-implementazione, identificazione e mitigazione dei rischi e monitoraggio costante per migliorare la sicurezza e l'efficacia. Secondo il Blueprint, i risultati di qualsiasi valutazione e relazione indipendente che confermi che il sistema è sicuro ed efficace dovrebbero essere resi pubblici quando possibile.

Protezioni contro la discriminazione algoritmica

Questo principio afferma che le persone "non dovrebbero subire discriminazioni da parte degli algoritmi e i sistemi dovrebbero essere utilizzati e progettati in modo equo". Secondo l'AI Bill of Rights, la discriminazione algoritmica si verifica quando i sistemi automatizzati hanno un impatto negativo sulle persone in base a caratteristiche come razza, orientamento sessuale, stato di disabilità e altre caratteristiche protette dalla legge. Per porre rimedio a questo problema, il principio suggerisce ai creatori di sistemi automatizzati di utilizzare misure, come valutazioni dell'equità, dati rappresentativi e test di disparità per proteggere individui e comunità ad alto rischio. Il principio incoraggia anche audit indipendenti e di terze parti.

Privacy dei dati

Questo principio afferma che le persone "dovrebbero essere protette da pratiche abusive sui dati attraverso protezioni integrate" e "dovrebbero avere il controllo su come vengono utilizzati i dati che li riguardano". Per allinearsi a questo principio, il Blueprint suggerisce che gli sviluppatori di AI proteggano gli utenti e la loro privacy attraverso scelte progettuali che contribuiscano a garantire che la raccolta di informazioni di identificazione personale (PII) sia strettamente necessaria. Il principio suggerisce inoltre che i creatori mantengano le autorizzazioni e le richieste di consenso brevi e comprensibili e rispettino le decisioni sull'uso, l'accesso, il trasferimento e l'eliminazione dei dati.

Sono necessarie protezioni e restrizioni avanzate per le informazioni sensibili come quelle riguardanti il lavoro, la salute, la giustizia penale e altro ancora. Il Blueprint afferma inoltre che la tecnologia di sorveglianza dovrebbe essere sottoposta a una maggiore supervisione per proteggere la privacy e le libertà civili dei cittadini.

Avvisi e spiegazioni

Questo principio afferma che le persone "dovrebbero sapere che viene utilizzato un sistema automatizzato e capire come e perché questo contribuisce a determinati risultati [che li riguardano]". L'AI Bill of Rights stabilisce che i progettisti, gli sviluppatori e gli implementatori di sistemi automatizzati dovrebbero utilizzare un linguaggio semplice e accessibile per spiegare, tra le altre cose, la funzione del sistema e il ruolo svolto dall'automazione. Inoltre, il principio suggerisce che i sistemi automatici dovrebbero fornire un avviso quando sono in uso e spiegazioni chiare su come e perché contribuiscono ai risultati che hanno conseguenze sugli individui.

Alternative umane, considerazione e fallback

Questo principio afferma che le persone "dovrebbero avere la possibilità di rinunciare, ove opportuno, e avere accesso a una persona che possa rapidamente considerare e risolvere i problemi che incontrano". Secondo il Blueprint, la determinazione di ciò che è "appropriato" dovrebbe basarsi su "aspettative ragionevoli" nel contesto specifico e dovrebbe concentrarsi sulla garanzia di un'ampia accessibilità e protezione da potenziali danni. Suggerisce che coloro che cercano di allinearsi a questo principio dovrebbero rendere la considerazione umana e i rimedi attraverso un processo di riserva ed escalation accessibile e tempestivo, soprattutto quando un sistema automatizzato si guasta, produce un errore o quando qualcuno vuole contestarne l'impatto.

"From Principles to Practice"

Insieme al blueprint è stato pubblicato un manuale tecnico intitolato "From Principles to Practice" che fornisce esempi e iniziative che i governi, i settori e le comunità possono adottare per incorporare i cinque principi nella politica, nella pratica o nella progettazione tecnica di sistemi automatizzati.

Insieme, l'AI Bill of Rights e il suo corrispettivo tecnico spiegano perché ogni principio è importante, cosa ci si deve aspettare dai sistemi automatizzati e come ciascun principio può essere messo in pratica. Gli esempi forniti non sono critiche o approvazioni, ma mirano piuttosto a ispirare le organizzazioni a incorporare misure di sicurezza nelle proprie operazioni e decisioni in materia di AI.

Quali impatti ha avuto l'AI Bill of Rights?

Dopo la sua pubblicazione a Washington DC, l'AI Bill of Rights potrebbe aver in parte ispirato diverse agenzie federali ad adottare linee guida per il proprio uso responsabile dell'AI. Al momento della stesura di questo articolo, 12 agenzie governative degli Stati Uniti, tra cui il Dipartimento del Commercio (DOC) e il National Institute of Standards and Technology (NIST), hanno requisiti di AI che riguardano legge, politica e sicurezza nazionale.

Il 30 ottobre 2023, l'amministrazione Biden ha emesso un ordine esecutivo per stabilire nuovi standard per un'AI sicura, protetta e affidabile. In un comunicato stampa pubblicato sei mesi dopo, il DOC ha annunciato diversi piani per attuare l'ordine esecutivo.4

A livello statale, sembra che i decisori politici stiano allineando la nuova legislazione al Blueprint in alcuni aspetti. Nel 2021, New York ha adottato una legge che prevede requisiti per i datori di lavoro, tra cui la notifica quando le tecnologie AI vengono utilizzate nel processo di assunzione. Diversi stati ora hanno requisiti sull'uso della tecnologia di riconoscimento facciale nelle forze dell'ordine. E, più recentemente, il California Civil Rights Council ha proposto emendamenti al Fair Employment and Housing Act (FEHA) che lo allineano ulteriormente all'AI Bill of Rights.

Al di fuori degli Stati Uniti, al momento della stesura del presente documento, 34 paesi hanno stabilito strategie nazionali sull'AI.5 In particolare, la legge sull'intelligenza artificiale dell'Unione Europea(Legge sull'IA) regola lo sviluppo o l'utilizzo dell'AI nell'UE. La legge adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse alle AI in base ai rischi che rappresentano.

In che modo l'AI Bill of Rights interagisce con le politiche esistenti?

Alcune delle misure di sicurezza suggerite nell'AI Bill of Rights sono già previste nella Costituzione degli Stati Uniti o nelle attuali leggi statunitensi. Ad esempio, la sorveglianza governativa menzionata nel principio della privacy dei dati è già soggetta a requisiti legali e controllo giudiziario, mentre le leggi sui diritti civili esistono per proteggere i cittadini statunitensi dalla discriminazione.

Esempi di altri standard dell'AI con cui si allinea il blueprint includono:

  • La Raccomandazione sull'intelligenza artificiale del 2019 da parte dell'OCSE che include i principi per la gestione responsabile di AI affidabile, adottati dagli Stati Uniti.

  • L'ordine esecutivo 13960 Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government che stabilisce i principi che regolano l'uso dell'AI da parte del governo federale degli Stati Uniti.

  • L'ordine esecutivo 13985 Advancing Racial Equity and Support for Underserved Communities Through the Federal Government.

Potrebbero essere adottate nuove politiche e pratiche per garantire l'attuazione delle misure di sicurezza contenute nell'AI Bill of Rights. Il blueprint riconosce che in alcuni casi potrebbero essere necessarie eccezioni ai principi al fine di garantire la conformità alla legislazione esistente, rispettare gli aspetti pratici di un caso d'uso specifico o bilanciare interessi pubblici concorrenti. Per esempio, le forze dell'ordine e le altre agenzie del governo sono incoraggiate a seguire le linee guida stabilite nell'AI Bill of Rights. Tuttavia, per proteggere i diritti e la privacy delle persone, potrebbe essere necessario utilizzare metodi alternativi.

In futuro, l'AI Bill of Rights potrebbe giocare un ruolo chiave nell'influenzare la prossima ondata di politiche, man mano che le nazioni del mondo adotteranno un approccio più olistico all'AI responsabile.

Soluzioni correlate
IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Soluzioni di governance dell'AI

Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.

Scopri le soluzioni di governance dell'AI
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Scopri i servizi di governance dell'AI
Prossimi passi

Indirizza, gestisci e monitora l'AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live
Note a piè di pagina

How organizations can stop skyrocketing AI use from fueling anxiety, Ernst & Young, dicembre 2023.

Artificial Intelligence is Putting Innocent People at Risk of Being Incarcerated, Innocence Project, Sanford, 14 febbraio 2024.

Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 19 febbraio 2023.

Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI, US Department of Commerce, 29 aprile 2024.

A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 13 dicembre 2023.