My IBM Accedi Iscriviti

Che cos'è l'Artificial Intelligence Act dell'Unione Europea (EU AI Act)?

20 settembre 2024

Autori

Matt Kosinski

Writer

Mark Scapicchio

Content Director of Inbound and SEO for IBM.com

Cos'è l'EU AI Act?

L'Artificial Intelligence Act dell'Unione Europea, noto anche come EU AI Act o AI Act, è una legge che regolamenta lo sviluppo e/o l'utilizzo dell'intelligenza artificiale (AI) nell'Unione Europea (UE). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse alle AI in base al rischio che rappresentano.

Considerato il primo quadro normativo completo al mondo per l'AI, l'EU AI Act proibisce alcuni usi dell'AI in modo definitivo e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per altri.

L'atto crea anche regole per modelli di AI generici, come il modello di base open source Granite di IBM e Llama 3 di Meta.

Le sanzioni possono variare da 7,5 milioni di euro, o l'1,5% del fatturato annuo globale, a 35 milioni di euro, o il 7% del fatturato annuo mondiale, a seconda del tipo di violazione della conformità.

Allo stesso modo in cui il Regolamento generale sulla protezione dei dati (GDPR) dell'UE ha ispirato altre nazioni ad adottare leggi sulla privacy dei dati, gli esperti prevedono che l'EU AI Act stimolerà lo sviluppo di una governance dell'AI e di standard etici in tutto il mondo.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI 


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

A chi si applica l'EU AI Act?

L'EU AI Act si applica a più operatori della catena del valore dell'AI, come fornitori, utilizzatori, importatori, distributori, produttori e rappresentanti autorizzati). Degne di menzione sono le definizioni di fornitori, utilizzatori e importatori ai sensi dell'EU AI Act.

Fornitori

I fornitori sono persone o organizzazioni che sviluppano un sistema AI o un modello AI per scopi generali (GPAI), o lo fanno sviluppare per loro conto, per poi immetterlo sul mercato o metterlo in servizio con il loro nome o brand.

La legge definisce in senso ampio un sistema AI come un sistema che può, con un certo grado di autonomia, elaborare input per dedurre come generare output (ad esempio, previsioni, raccomandazioni, decisioni, contenuti) che possono influenzare ambienti fisici o virtuali. Definisce i GPAI come modelli AI che mostrano una notevole generalità, sono in grado di svolgere competentemente un'ampia gamma di compiti distinti e che possono essere integrati in vari sistemi o applicazioni AI a valle. Ad esempio, un foundation model è un GPAI, mentre uno strumento di chatbot o AI generativa basato su quel modello sarebbe un sistema AI.

Utilizzatori

Gli utilizzatori sono persone e organizzazioni che utilizzano i sistemi AI. Ad esempio, un'organizzazione che utilizza un chatbot AI per gestire le richieste di servizio clienti sarebbe un utilizzatore.

Importatori

Gli importatori sono persone e organizzazioni situate o stabilite nell'UE che portano sul mercato dell'UE i sistemi AI di una persona o di un'azienda esterna all'UE.

Applicazione al di fuori dell'UE

L'EU AI Act si applica anche ai fornitori e agli utilizzatori al di fuori dell'UE se la loro AI o i relativi output sono utilizzati nell'UE.

Ad esempio, supponiamo che un'azienda con sede nell'UE invii i dati a un fornitore di AI esterno all'UE, che utilizza l'AI per elaborare i dati e poi invia nuovamente il risultato all'azienda UE perché possa utilizzarlo. Poiché l'output del sistema AI del fornitore viene utilizzato nell'UE, il fornitore sarà vincolato all'EU AI Act.

I fornitori al di fuori dell'UE che offrono servizi AI nell'UE devono designare rappresentanti autorizzati nell'UE per coordinare gli sforzi di conformità per loro conto.

Eccezioni

Sebbene la legge abbia un'ampia portata, alcuni usi dell'AI sono esenti. Gli usi puramente personali dell'AI e i modelli e sistemi AI utilizzati solo per la ricerca e lo sviluppo scientifici sono esempi di usi esenti.

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell’AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Quali requisiti impone l'EU AI Act?

L'EU AI Act regola i sistemi AI in base al livello di rischio. Con rischio qui si fa riferimento alla probabilità e alla gravità del potenziale danno. Alcune delle disposizioni più importanti includono:

  • il divieto di alcune pratiche di AI che si ritiene comportino rischi inaccettabili,

  • standard per lo sviluppo e l'implementazione di alcuni sistemi AI ad alto rischio,

  • regole per modelli AI per scopi generali (GPAI).

I sistemi AI che non rientrano in una delle categorie di rischio dell'EU AI Act non sono soggetti ai requisiti previsti dalla legge (sono spesso soprannominati categoria di "rischio minimo"), anche se alcuni potrebbero dover soddisfare obblighi di trasparenza e rispettare altre leggi esistenti.  Gli esempi includono i filtri antispam per le e-mail e i videogiochi. Molti usi comuni dell'AI oggi rientrano in questa categoria.

Vale la pena notare che molti dei dettagli più fini dell'EU AI Act relativi all'implementazione sono ancora in fase di definizione. Ad esempio, la legge rileva che la Commissione europea pubblicherà ulteriori linee guida su requisiti come piani di monitoraggio post-commercializzazione e riepiloghi dei dati di addestramento.

Pratiche AI vietate

L'EU AI Act elenca esplicitamente alcune pratiche di AI vietate che si ritiene rappresentino un livello di rischio inaccettabile. Ad esempio, lo sviluppo o l'utilizzo di un sistema AI che manipoli intenzionalmente le persone spingendole a prendere decisioni pericolosi che altrimenti non prenderebbero è considerato di fatto un rischio inaccettabile per gli utenti ed è una pratica AI proibita.

La Commissione europea può modificare l'elenco delle pratiche vietate nell'atto, pertanto è possibile che in futuro vengano vietate ulteriori pratiche di AI.

 Un elenco parziale delle pratiche AI proibite al momento della pubblicazione di questo articolo include:

  • Sistemi di punteggio sociale, ovvero sistemi che valutano o classificano gli individui in base al loro comportamento sociale, che portano a un trattamento dannoso o sfavorevole in contesti non correlati alla raccolta dei dati originali e ingiustificati o sproporzionati rispetto alla gravità del comportamento

  • Sistemi di riconoscimento delle emozioni sul lavoro e negli istituti di istruzione, tranne quando questi strumenti sono utilizzati per scopi medici o di sicurezza

  • L'AI viene utilizzata per sfruttare le vulnerabilità delle persone (ad esempio, quelle dovute all'età o alla disabilità)

  • Scraping non mirato di immagini facciali prese da Internet o da televisione a circuito chiuso (CCTV) per database di riconoscimento facciale

  • Sistemi di identificazione biometrica che identificano le persone in base alle caratteristiche sensibili

  • Applicazioni di politiche predittive specifiche

  • L'uso da parte delle forze dell'ordine di sistemi di identificazione biometrica remota in tempo reale in pubblico (a meno che non si applichi un'eccezione, e in genere è necessaria l'autorizzazione preventiva da parte di un'autorità giudiziaria o amministrativa indipendente).

Standard per l'AI ad alto rischio

I sistemi AI sono considerati ad alto rischio ai sensi dell'EU AI Act se sono un prodotto o un suo componente di sicurezza regolamentato da specifiche leggi dell'UE a cui fa riferimento l'atto, come le leggi sulla sicurezza dei giocattoli e sui dispositivi medico-diagnostici in vitro.

La legge elenca anche gli usi specifici generalmente considerati ad alto rischio, compresi i sistemi AI utilizzati:

  • nei contesti lavorativi, come quelli utilizzati per assumere o valutare i candidati e prendere decisioni di promozione

  • in alcuni dispositivi medici

  • in determinati contesti di educazione e formazione professionale

  • nei processi giudiziari e democratici, come i sistemi destinati ad influenzare l'esito delle elezioni

  • per determinare l'accesso a servizi privati o pubblici essenziali, inclusi i sistemi che valutano l'idoneità ai benefici pubblici e valutano i punteggi di credito.

  • nella gestione delle infrastrutture critiche (per esempio, forniture di acqua, gas, elettricità, ecc.)

  • in qualsiasi sistema di identificazione biometrica che non sia vietato, ad eccezione dei sistemi il cui unico scopo è verificare l'identità di una persona (ad esempio, l'utilizzo di uno scanner di impronte digitali per accedere a un'app di banking).

Per i sistemi inclusi in questo elenco, può essere disponibile un'eccezione se il sistema AI non rappresenta una minaccia significativa per la salute, la sicurezza o i diritti delle persone. L'atto specifica diversi criteri che devono essere soddisfatti, tutti o in parte, prima che possa essere attivata un'eccezione (ad esempio, quando il sistema AI è destinato a svolgere un compito procedurale ristretto). Se fa affidamento su questa eccezione, il fornitore deve documentare la sua valutazione che il sistema non sia ad alto rischio, e le autorità di regolamentazione possono prendere visione tale valutazione. L'eccezione non è disponibile per i sistemi AI che elaborano automaticamente i dati personali per valutare o prevedere alcuni aspetti della vita di una persona, come le sue preferenze di prodotto (profilazione), che sono sempre considerati ad alto rischio.

Come nel caso dell'elenco delle pratiche di AI vietate, la Commissione europea potrebbe aggiornare l'elenco dei sistemi AI ad alto rischio in futuro.

Requisiti per i sistemi AI ad alto rischio

I sistemi AI ad alto rischio devono essere conformi a requisiti specifici. Ecco alcuni esempi:

  • Implementare un sistema di gestione del rischio continuo per monitorare l'AI durante tutto il suo ciclo di vita. Per esempio, i fornitori sono tenuti a mitigare i rischi ragionevolmente prevedibili posti dall'uso previsto dei loro sistemi.

  • Adottare rigorose pratiche di governance dei dati per garantire che i dati di addestramento, convalida e test soddisfino specifici criteri di qualità. Ad esempio, è necessario adottare una governance riguardante il processo di raccolta e origine dei dati, nonché misure per prevenire e mitigare i pregiudizi.

  • Mantenere una documentazione tecnica completa con informazioni precise, tra cui specifiche di progettazione del sistema, capacità, limitazioni e impegni di conformità normativa.

Esistono ulteriori obblighi di trasparenza per tipi specifici di AI. Ad esempio:

  • I sistemi AI destinati a interagire direttamente con le persone devono essere progettati per informare gli utenti che stanno interagendo con un sistema AI, a meno che ciò non sia ovvio considerando il contesto. Un chatbot, ad esempio, deve essere progettato per avvisare gli utenti di essere un chatbot.
     

  • I sistemi AI che generano testo, immagini o altri contenuti devono utilizzare formati leggibili dalla macchina per contrassegnare gli output come generati o manipolati dall'AI. Ciò include, ad esempio, l'AI che genera deepfake, ossia immagini o video alterati per mostrare qualcuno che fa o dice qualcosa che non ha fatto o detto.

Obblighi per gli operatori di sistemi AI ad alto rischio

Ecco alcuni obblighi per gli operatori fondamentali dei sistemi AI ad alto rischio nella catena del valore dell'AI (fornitori e utilizzatori).

Obblighi per i fornitori di sistemi AI ad alto rischio

I fornitori di sistemi AI ad alto rischio devono rispettare requisiti tra cui:

  • Garantire che i sistemi AI ad alto rischio siano conformi ai requisiti specificati per i sistemi AI ad alto rischio nella legge. Ad esempio, l'implementazione di un sistema di gestione del rischio continuo.

  • Avere un sistema di gestione della qualità in atto.

  • Implementare piani di monitoraggio post-commercializzazione per controllare le prestazioni del sistema AI e valutarne la continua conformità durante il suo ciclo di vita.

Obblighi per gli utilizzatori di sistemi AI ad alto rischio

Gli utilizzatori di sistemi AI ad alto rischio hanno diversi obblighi, tra cui:

  • Adottare misure tecniche e organizzative appropriate per garantire che utilizzino tali sistemi in conformità con le relative istruzioni per l'uso.

  • Mantenere i registri del sistema AI generati automaticamente, nella misura in cui sono sotto il loro controllo, per un periodo specificato.

  • Per gli utilizzatori che fanno uso di sistemi AI ad alto rischio per fornire determinati servizi essenziali (come enti governativi o organizzazioni private che forniscono servizi pubblici), effettuare valutazioni dell'impatto sui diritti fondamentali prima di utilizzare determinati sistemi AI ad alto rischio per la prima volta.

Regole per i modelli AI per scopi generali (GPAI)

L'EU AI Act crea norme separate per i modelli AI per scopi generali (GPAI). I fornitori di modelli GPAI avranno alcuni obblighi come:

  • Stabilire politiche per rispettare le leggi sul diritto d’autore dell'UE.

  • Scrivere e rendere pubblicamente disponibili riepiloghi dettagliati dei set di dati di addestramento.

Se un modello GPAI è classificato come avente un rischio sistemico, i fornitori avranno obblighi aggiuntivi. Il rischio sistemico è un rischio specifico delle funzionalità ad alto impatto dei modelli GPAI che hanno un impatto significativo sul mercato dell'UE a causa della loro portata o degli effetti negativi reali o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, la pubblica sicurezza, i diritti fondamentali o la società nel suo complesso, che possono essere propagati su larga scala lungo tutta la catena del valore. La legge utilizza le risorse di addestramento come uno dei criteri per individuare il rischio sistemico. Se la quantità cumulativa di potenza di calcolo utilizzata per addestrare un modello è superiore a 10^25 operazioni in virgola mobile (FLOP, Floating Point Operation), si ritiene che abbia funzionalità ad alto impatto e rappresenti un rischio sistemico. La Commissione europea può inoltre classificare un modello come avente un rischio sistemico.

I fornitori di modelli GPAI che presentano un rischio sistemico, compresi i modelli open source gratuiti, devono soddisfare alcuni obblighi aggiuntivi, come:

  • Documentare e segnalare incidenti gravi all'Ufficio europeo per l'AI e alle autorità di regolamentazione nazionali pertinenti.

  • Implementare una cybersecurity adeguata per proteggere il modello e la sua infrastruttura fisica.

Sanzioni dell'EU AI Act

In caso di mancata conformità alle pratiche proibite AI, le organizzazioni possono essere multate fino a 35.000.000 € o al 7% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.

Per la maggior parte delle altre violazioni, comprese la mancata conformità ai requisiti per i sistemi AI ad alto rischio, le organizzazioni possono essere multate fino a 15.000.000 € o al 3% del fatturato annuale globale, a seconda di quale sia il valore più alto.

Fornire informazioni errate, incomplete o fuorvianti alle autorità può comportare multe per le organizzazioni fino a 7.500.000 € o l'1% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.

In particolare, l'EU AI Act prevede regole diverse per multare le startup e altre piccole e medie organizzazioni. Per queste aziende, la multa è il più basso dei due importi possibili specificati sopra.

Quando entrerà in vigore l'EU AI Act?

La legge è entrata in vigore il 1° agosto 2024 e diverse disposizioni della legge sono entrate in vigore in più fasi. Alcune delle date più importanti di questo percorso includono:

  • Dal 2 febbraio 2025, entreranno in vigore i divieti sulle pratiche di AI vietate.

  • Dal 2 agosto 2025, le regole per l'AI per scopi generali entreranno in vigore per i nuovi modelli GPAI. I fornitori di modelli GPAI immessi sul mercato prima del 2 agosto 2025 avranno tempo fino al 2 agosto 2027 per adeguarsi.

  • Dal 2 agosto 2026, entreranno in vigore le regole per i sistemi AI a rischio elevato.

  • Dal 2 agosto 2027, si applicheranno le regole per i sistemi AI che sono prodotti o componenti di sicurezza regolamentati da specifiche leggi dell'UE.
Soluzioni correlate

Soluzioni correlate

IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Esplora i servizi di governance per l'AI
IBM OpenPages

Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.

Esplora OpenPages
Fai il passo successivo

Indirizza, gestisci e monitora la tua AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live
Note a piè di pagina

Il cliente è responsabile della conformità a tutte le leggi e normative vigenti. IBM non fornisce consulenza legale, né dichiara o garantisce che i suoi servizi o prodotti assicurino al cliente la conformità a qualsivoglia legge o regolamento.