My IBM Accedi Iscriviti

Prepararsi alla legge UE sull'AI: ottenere la giusta governance

8 febbraio 2024

Tempo di lettura: 4 minuti

L'European Artificial Intelligence Act sta determinando nuovi livelli di supervisione umana e conformità normativa per l'AI (intelligenza artificiale) all'interno dell'Unione europea. Analogamente al GDPR per la privacy, l'EU AI Act potrà impostare il tono delle prossime normative sull'AI a livello globale.

All'inizio del 2024, il Parlamento europeo, composto da 27 Stati membri, ha approvato all'unanimità l'EU AI Act. La legge sta ora attraversando le fasi finali del processo legislativo e dovrebbe essere implementata in più fasi nella seconda metà del 2024. Comprendere le disposizioni dell'EU AI Act e prepararsi alla conformità è fondamentale per qualsiasi organizzazione che sviluppa, implementa o utilizza AI, o sta pianificando di farlo.

L’AI Act mira a "rafforzare la posizione dell’Europa come polo globale di eccellenza nell’AI, dal laboratorio al mercato, garantire che l’AI in Europa rispetti i valori e le regole stabiliti e sfrutti il potenziale dell’AI per l’uso industriale”.

- Notizie dal Parlamento europeo

L'EU AI Act in breve

L'obiettivo principale dell'AI Act dell'UE è rafforzare la conformità normativa nei settori della gestione del rischio, della protezione dei dati, dei sistemi di gestione della qualità, della trasparenza, della supervisione umana, dell'accuratezza, della robustezza e della sicurezza informatica. Mira a promuovere la trasparenza e la responsabilità nel modo in cui i sistemi AI vengono sviluppati e implementati, contribuendo a garantire che i prodotti AI immessi sul mercato siano sicuri da utilizzare per gli individui.

L'EU AI Act mira ad affrontare la sfida di sviluppo e implementazione dell'AI in modo responsabile in tutti i settori, compresi quelli altamente regolamentati come la sanità, la finanza e l'energia. Per i settori che forniscono servizi essenziali ai clienti, come le assicurazioni, le banche e il retail, la legge richiede l'uso di una valutazione d'impatto sui diritti fondamentali che descriva in dettaglio in che modo l'uso dell'AI influenzerà i diritti dei clienti.

La pietra miliare dell'EU AI Act: garanzie per prevenire rischi inaccettabili

L'EU AI Act prevede che i modelli AI per uso generale, compresi i sistemi di AI generativa come i modelli LLM e i foundation model, aderiscano a un sistema di classificazione basato su livelli di rischio sistematici. I livelli di rischio più elevati presentano maggiori requisiti per la trasparenza, tra cui la documentazione, il reporting e la valutazione dei modelli. Comprendono inoltre la valutazione e la mitigazione dei rischi di sistema, la segnalazione di incidenti gravi e la fornitura di protezioni in materia di cybersecurity. Inoltre, questi requisiti di trasparenza includono la conservazione di una documentazione tecnica aggiornata, fornendo un riepilogo dei contenuti utilizzati per l'addestramento dei modelli e il rispetto delle leggi europee sul copyright.

L'EU AI Act segue un approccio basato sul rischio, utilizzando livelli per classificare il livello di rischio che i sistemi di AI rappresentano per lo stato di salute, la sicurezza o i diritti fondamentali di un individuo. I tre livelli sono:

  • Sistemi a basso rischio come i filtri antispam o i videogiochi presentano pochi requisiti di legge oltre agli obblighi di trasparenza.
  • I sistemi di AI ad alto rischio come veicoli autonomi, dispositivi medici e infrastrutture critiche (acqua, gas, elettricità, ecc.) richiedono agli sviluppatori e agli utenti il rispetto di ulteriori requisiti normativi:
    • Implementa la gestione del rischio e offri accuratezza, solidità e un framework di riferimento per la responsabilità che includa la supervisione umana
    • Soddisfa i requisiti di trasparenza previsti per gli utenti, la conservazione dei record e la documentazione tecnica
  • Sistemi non consentiti con poche eccezioni sono sistemi che presentano rischi non accettabili come i sistemi di punteggio sociale, riconoscimento facciale, riconoscimento delle emozioni e di identificazione biometrica remota negli spazi pubblici.

L'EU AI Act impone inoltre delle regole su come informare i clienti quando si utilizza un chatbot o un sistema di riconoscimento delle emozioni. Esistono requisiti aggiuntivi per etichettare i deep fake e individuare quando i contenuti di AI generativa vengono utilizzati nei media.

Il mancato rispetto dell'EU AI Act può essere costoso:

7,5 milioni di euro o l'1,5% del fatturato annuo totale mondiale di un'azienda (a seconda di quale sia il valore più alto) per la fornitura di informazioni errate. 15 milioni di euro o il 3% del fatturato annuo totale mondiale di un'azienda (a seconda di quale sia il valore più elevato) per violazioni degli obblighi previsti dall'AI Act.

— VentureBeat

L'AI Act dell'Unione Europea è attualmente il quadro giuridico più completo per la regolamentazione dell'AI. I governi di tutto il mondo ne stanno prendendo atto e stanno discutendo attivamente come regolamentare la tecnologia dell'AI per garantire che i cittadini, le aziende e le agenzie governative siano protetti da potenziali rischi. Inoltre, gli stakeholder, dai consigli di amministrazione aziendali ai consumatori, stanno iniziando a riconoscere l'importanza della fiducia, della trasparenza, dell'equità e della responsabilità in ambito AI.

Prepararsi alle normative future con IBM

IBM watsonx.governance aiuta ad accelerare workflow AI responsabili, trasparenti e spiegabili

IBM® watsonx.governance ti consente di accelerare la governance dell'AI, ovvero la direzione, la gestione e il monitoraggio delle attività di AI della tua organizzazione. Utilizza l'automazione software per rafforzare la capacità di mitigare i rischi, gestire i requisiti normativi e governare il ciclo di vita per i modelli di AI generativa e di apprendimento automatico (ML).

Watsonx.governance aiuta a promuovere la trasparenza, la spiegabilità e la documentazione dei modelli in 3 aree chiave:

  • Conformità gestisci la trasparenza dell'AI e assicura la conformità alle politiche e agli standard. Collega i dati ai principali controlli dei rischi e utilizza le schede informative per automatizzare l'acquisizione e il reporting dei metadati del modello a supporto di indagini e audit.
  • Gestione dei rischi - soglie di rischio preimpostate, che aiutano a rilevare e mitigare in modo proattivo i rischi dei modelli AI. Monitora l'equità, la deriva, le distorsioni, le prestazioni rispetto alle metriche di valutazione, i casi di linguaggio tossico e la protezione delle informazioni personali identificabili (PII) . Ottieni insight sul rischio organizzativo con dashboard e report basati sugli utenti.
  • Governance del ciclo di vita : aiuta a governare sia i modelli AI generativa, sia i modelli di apprendimento automatico predittivo durante l'intero ciclo di vita utilizzando workflow e approvazioni integrati, monitora lo stato dei casi d'uso, le richieste di modifica in corso, le sfide, i problemi e le attività assegnate.

È responsabilità del cliente garantire la conformità a normative e regolamenti applicabili. IBM non fornisce consulenza legale né dichiara o garantisce che i propri servizi o prodotti assicurino al cliente la conformità con qualsivoglia legge o regolamento.

 

Autore

Heather Gentile

Director of watsonx.governance Product Management, IBM Data and AI Software