Home
topics
eu ai act
Data di aggiornamento: 20 giugno 2024
Collaboratori: Matt Kosinski e Mark Scapicchio
L'Artificial Intelligence Act dell'Unione Europea, noto anche come EU AI Act o AI Act, è una legge che disciplina lo sviluppo e/o l'uso dell'intelligenza artificiale (AI) nell'Unione Europea (UE). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse alle AI in base al rischio che rappresentano.
Considerato il primo quadro normativo completo al mondo per l'AI, l'EU AI Act proibisce alcuni usi dell'AI in modo definitivo e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per altri.
L'atto crea anche regole per modelli di AI generici, come il modello di base open source Granite di IBM e Llama 3 di Meta.
Le sanzioni possono variare da 7,5 milioni di euro, o l'1,5% del fatturato annuo globale, a 35 milioni di euro, o il 7% del fatturato annuo mondiale, a seconda del tipo di violazione della conformità.
Allo stesso modo in cui il Regolamento generale sulla protezione dei dati (GDPR) dell'UE ha ispirato altre nazioni ad adottare leggi sulla privacy dei dati, gli esperti prevedono che l'EU AI Act stimolerà lo sviluppo di una governance per l'AI più forte e di standard etici in tutto il mondo.
L'EU AI Act si applica a più operatori della catena del valore dell'AI, come fornitori, utilizzatori, importatori, distributori, produttori e rappresentanti autorizzati). Degne di menzione sono le definizioni di fornitori, utilizzatori e importatori ai sensi dell'EU AI Act.
I fornitori sono persone o organizzazioni che sviluppano un sistema AI o un modello AI per scopi generali (GPAI), o lo fanno sviluppare per loro conto, per poi immetterlo sul mercato o metterlo in servizio con il loro nome o brand.
L'atto definisce in generale un sistema AI come un sistema in grado, con un certo livello di autonomia, di elaborare input per dedurre come generare output (ad esempio previsioni, raccomandazioni, decisioni, contenuti) che possono influenzare ambienti fisici o virtuali. Definisce i GPAI come modelli AI che mostrano una generalità significativa, sono in grado di eseguire con competenza un'ampia gamma di attività distinte e che possono essere integrati in vari sistemi o applicazioni AI a valle. Ad esempio, un foundation model è un GPAI, mentre uno strumento di chatbot o AI generativa basato su quel modello sarebbe un sistema AI.
Gli utilizzatori sono persone e organizzazioni che utilizzano i sistemi AI. Ad esempio, un'organizzazione che utilizza un chatbot AI per gestire le richieste di servizio clienti sarebbe un utilizzatore.
Gli importatori sono persone e organizzazioni situate o stabilite nell'UE che portano sul mercato dell'UE i sistemi AI di una persona o di un'azienda esterna all'UE.
L'EU AI Act si applica anche ai fornitori e agli utilizzatori al di fuori dell'UE se la loro AI o i suoi output sono utilizzati nell'UE.
Ad esempio, supponiamo che un'azienda con sede nell'UE invii i dati a un fornitore di AI esterno all'UE, che utilizza l'AI per elaborare i dati e poi invia nuovamente il risultato all'azienda UE perché possa utilizzarlo. Poiché l'output del sistema AI del fornitore viene utilizzato nell'UE, il fornitore sarà vincolato all'EU AI Act.
I fornitori al di fuori dell'UE che offrono servizi AI nell'UE devono designare rappresentanti autorizzati nell'UE per coordinare gli sforzi di conformità per loro conto.
Sebbene la legge abbia un'ampia portata, alcuni usi dell'AI sono esenti. Gli usi puramente personali dell'AI e i modelli e sistemi AI utilizzati solo per la ricerca e lo sviluppo scientifici sono esempi di usi esenti.
L'EU AI Act regola i sistemi AI in base al livello di rischio. Con rischio qui si fa riferimento alla probabilità e alla gravità del potenziale danno. Alcune delle disposizioni più importanti includono:
I sistemi AI che non rientrano in una delle categorie di rischio dell'EU AI Act non sono soggetti ai requisiti previsti dalla legge (sono spesso soprannominati categoria di "rischio minimo"), anche se alcuni potrebbero dover soddisfare obblighi di trasparenza e rispettare altre leggi esistenti. Gli esempi includono i filtri antispam per le e-mail e nei videogiochi. Molti usi comuni dell'AI oggi rientrano in questa categoria.
Vale la pena notare che molti dei dettagli più fini dell'EU AI Act relativi all'implementazione sono ancora in fase di definizione. Ad esempio, la legge rileva che la Commissione europea pubblicherà ulteriori linee guida su requisiti come i piani di monitoraggio post-commercializzazione e riepiloghi dei dati di addestramento.
L'EU AI Act elenca esplicitamente alcune pratiche di AI vietate che si ritiene rappresentino un livello di rischio inaccettabile. Ad esempio, lo sviluppo o l'utilizzo di un sistema AI che manipoli intenzionalmente le persone spingendole a prendere decisioni pericolosi che altrimenti non prenderebbero è considerato di fatto un rischio inaccettabile per gli utenti ed è una pratica AI proibita.
La Commissione europea può modificare l'elenco delle pratiche vietate nell'atto, pertanto è possibile che in futuro vengano vietate ulteriori pratiche di AI.
Un elenco parziale delle pratiche AI proibite al momento della pubblicazione di questo articolo include:
I sistemi AI sono considerati ad alto rischio ai sensi dell'EU AI Act se sono un prodotto o un suo componente di sicurezza regolamentato da specifiche leggi dell'UE a cui fa riferimento l'atto, come le leggi sulla sicurezza dei giocattoli e sui dispositivi medico-diagnostici in vitro.
La legge elenca anche gli usi specifici generalmente considerati ad alto rischio, compresi i sistemi AI utilizzati:
Per i sistemi inclusi in questo elenco, può essere disponibile un'eccezione se il sistema AI non rappresenta una minaccia significativa per la salute, la sicurezza o i diritti delle persone. L'atto specifica diversi criteri che devono essere soddisfatti, tutti o in parte, prima che possa essere attivata un'eccezione (ad esempio, quando il sistema AI è destinato a svolgere un compito procedurale ristretto). Se fa affidamento su questa eccezione, il fornitore deve documentare la sua valutazione che il sistema non sia ad alto rischio, e le autorità di regolamentazione possono prendere visione tale valutazione. L'eccezione non è disponibile per i sistemi AI che elaborano automaticamente i dati personali per valutare o prevedere alcuni aspetti della vita di una persona, come le sue preferenze di prodotto (profilazione), che sono sempre considerati ad alto rischio.
Come nel caso dell'elenco delle pratiche di AI vietate, la Commissione europea potrebbe aggiornare l'elenco dei sistemi AI ad alto rischio in futuro.
I sistemi AI ad alto rischio devono essere conformi a requisiti specifici. Ecco alcuni esempi:
Esistono ulteriori obblighi di trasparenza per tipi specifici di AI. Per esempio:
Ecco alcuni obblighi per gli operatori fondamentali dei sistemi AI ad alto rischio nella catena del valore dell'AI (fornitori e utilizzatori).
I fornitori di sistemi AI ad alto rischio devono rispettare requisiti tra cui:
Gli utilizzatori di sistemi AI ad alto rischio hanno diversi obblighi, tra cui:
L'EU AI Act crea norme separate per i modelli AI per scopi generali (GPAI). I fornitori di modelli GPAI avranno alcuni obblighi come:
Se un modello GPAI è classificato come a rischio sistemico, i fornitori avranno obblighi aggiuntivi. Il rischio sistemico è un rischio specifico delle funzionalità ad alto impatto dei modelli GPAI che hanno un impatto significativo sul mercato dell'UE a causa della loro portata o degli effetti negativi reali o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, la pubblica sicurezza, i diritti fondamentali o la società nel suo complesso, che possono essere propagati su larga scala lungo tutta la catena del valore. La legge utilizza le risorse di addestramento come uno dei criteri chiave per identificare il rischio sistemico. Se la quantità cumulativa di potenza di calcolo utilizzata per addestrare un modello è superiore a 1025 operazioni in virgola mobile (FLOP, Floating Point Operation), si ritiene che abbia funzionalità ad alto impatto e rappresenti un rischio sistemico. La Commissione europea può anche classificare un modello come a rischio sistemico.
I fornitori di modelli GPAI che presentano un rischio sistemico, compresi i modelli open source gratuiti, devono soddisfare alcuni obblighi aggiuntivi, come:
In caso di mancata conformità alle pratiche proibite AI, le organizzazioni possono essere multate fino a 35.000.000 € o il 7% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.s
Per la maggior parte delle altre violazioni, inclusa la mancata conformità ai requisiti per i sistemi di AI ad alto rischio, le organizzazioni possono essere multate fino a 15.000.000 € o al 3% del fatturato annuo globale, a seconda di quale sia il valore più alto.
Fornire informazioni errate, incomplete o fuorvianti alle autorità può comportare multe per le organizzazioni fino a 7.500.000 € o l'1% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.
In particolare, l'EU AI Act prevede regole diverse per multare le startup e altre piccole o medie organizzazioni. Per queste aziende, le sanzioni equivalgono al più basso dei due importi possibili sopra specificati
Inizialmente proposto dalla Commissione europea nell'aprile 2021, l'EU AI Act è stato approvato dal Parlamento europeo il 22 aprile 2024 e dagli Stati membri dell'UE il 21 maggio 2024. La legge entrerà in vigore in più fasi 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale dell'UE. Alcune delle date più importanti di questo percorso includono:
Implementa e integra facilmente l'AI in tutta l'azienda, gestisci tutte le fonti di dati e accelera i workflow di AI responsabile—tutto su un'unica piattaforma.
Semplifica la governance dei dati, la gestione del rischio e la conformità normativa con IBM OpenPages: una piattaforma GRC unificata altamente scalabile e basata sulla tecnologia AI.
Il nostro ultimo eBook illustra gli elementi fondamentali della governance dell'AI e condivide un framework dettagliato di governance dell'AI che puoi applicare alla tua organizzazione.
Esplora il potenziale trasformativo dell'AI responsabile per la tua organizzazione e scopri quali sono i fattori cruciali per l'adozione di pratiche etiche di AI.
Partecipa alla discussione sul motivo per cui le aziende devono dare priorità alla governance dell'AI per implementare un'AI responsabile.
Scopri come la governance dei dati garantisce alle aziende di ottenere il massimo dai propri asset di dati.
L'AI spiegabile riveste un ruolo centrale nelle organizzazioni per instaurare fiducia e sicurezza nel momento in cui si inseriscono in produzione i modelli AI.
L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'AI riducendo al contempo i rischi e gli esiti negativi. Scopri di più sull'approccio di IBM all'etica dell'AI.
Il cliente è responsabile della conformità a tutte le leggi e le normative vigenti. IBM non fornisce consulenza legale, né dichiara o garantisce che i suoi servizi o prodotti assicurino al cliente la conformità a qualsivoglia legge o regolamento.