L'Artificial Intelligence Act dell'Unione Europea, noto anche come EU AI Act o AI Act, è la norma che regolamenta lo sviluppo e l'utilizzo dell'intelligenza artificiale (AI) nell'Unione Europea (UE). La normativa adotta un approccio regolamentare basato sul rischio, applicando regole diverse all'AI in base al rischio che rappresenta.
Considerato il primo quadro normativo completo al mondo per l'AI, l'EU AI Act proibisce totalmente alcuni impieghi dell'AI e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per gli altri utilizzi.
L'atto crea anche regole per modelli di AI generici, come il modello di base open source Granite di IBM e Llama 3 di Meta.
Le sanzioni possono variare da 7,5 milioni di EUR, o l'1,5% del fatturato annuo globale, a 35 milioni di EUR, o il 7% del fatturato annuo mondiale, a seconda del tipo di violazione della conformità.
Nello stesso modo in cui il Regolamento generale sulla protezione dei dati (GDPR) dell'UE può ispirare altre nazioni ad adottare leggi sulla privacy dei dati, gli esperti prevedono che l'AI Act dell'UE stimolerà lo sviluppo di standard di governance ed etica dell'AI in tutto il mondo.
L'EU AI Act si applica a più operatori della catena del valore dell'AI, come fornitori, utilizzatori, importatori, distributori, produttori e rappresentanti autorizzati). Degne di menzione sono le definizioni di fornitori, utilizzatori e importatori ai sensi dell'EU AI Act.
I fornitori sono persone o organizzazioni che sviluppano un sistema AI o un modello AI per scopi generali (GPAI), o lo fanno sviluppare per loro conto, per poi immetterlo sul mercato o metterlo in servizio con il loro nome o brand.
La norma definisce in modo ampio un sistema di AI come un sistema che può, con un certo livello di autonomia, elaborare input per dedurre come generare output (ad esempio, previsioni, raccomandazioni, decisioni, contenuti) che possono influenzare ambienti fisici o virtuali. Definisce le GPAI come modelli AI che mostrano una generalità significativa, sono in grado di eseguire con competenza un'ampia gamma di compiti distinti e possono essere integrati in una varietà di sistemi o applicazioni di AI a valle. Ad esempio, un modello di fondazione è una GPAI; un chatbot o uno strumento di AI generativa costruito su quel modello sarebbe un sistema di AI.
Gli utilizzatori sono persone o organizzazioni che utilizzano i sistemi AI. Ad esempio, un'organizzazione che utilizza un chatbot AI di terze parti per gestire le richieste di servizio clienti sarebbe un utilizzatore.
Gli importatori sono persone e organizzazioni situate o stabilite nell'UE che portano sul mercato dell'UE i sistemi AI di una persona o di un'azienda esterna all'UE.
L'EU AI Act si applica anche ai fornitori e agli utilizzatori al di fuori dell'UE se la loro AI o i suoi output sono utilizzati nell'UE.
Ad esempio, supponiamo che un'azienda con sede nella UE invii i dati a un fornitore di AI esterno all'UE, che utilizza l'AI per elaborare i dati e poi invia nuovamente i dati elaborati all'azienda in territorio UE perché possa utilizzarli. Poiché l'output del sistema AI del fornitore viene utilizzato nell'UE, il fornitore è tenuto al rispetto dell'EU AI Act.
I fornitori extra UE che offrono servizi AI nell'UE devono designare rappresentanti autorizzati nell'UE per coordinare le attività di conformità per loro conto.
Sebbene la legge abbia una portata molto ampia, alcuni impieghi dell'AI rimangono esenti. Gli usi puramente personali dell'AI e i modelli e sistemi AI utilizzati solo per la ricerca e lo sviluppo scientifici sono esempi di usi esenti.
L'EU AI Act regola i sistemi AI in base al livello di rischio. Per rischio qui si fa riferimento alla probabilità e alla gravità del potenziale danno. Alcune delle disposizioni più importanti includono:
I sistemi AI che non rientrano in una delle categorie di rischio dell'EU AI Act non sono soggetti ai requisiti previsti dalla norma (sono spesso considerati come categoria di "rischio minimo"), anche se alcuni potrebbero dover soddisfare obblighi di trasparenza e rispettare altre leggi esistenti. Tra gli esempi troviamo i filtri antispam per le e-mail e nei videogiochi.Molti usi comuni dell'AI oggi rientrano in questa categoria.
Vale la pena notare che molti dei dettagli più fini dell'EU AI Act relativi all'implementazione sono ancora in fase di definizione.Ad esempio, la legge rileva che la Commissione europea pubblicherà ulteriori linee guida su requisiti come piani di monitoraggio post-commercializzazione e riepiloghi dei dati di addestramento.
L'EU AI Act elenca esplicitamente alcune pratiche di AI vietate che si ritiene rappresentino un livello di rischio inaccettabile. Ad esempio, lo sviluppo o l'utilizzo di un sistema AI che manipoli intenzionalmente le persone, spingendole a prendere decisioni pericolose che altrimenti non prenderebbero, è considerato un rischio inaccettabile per gli utenti e costituisce una pratica AI proibita.
La Commissione europea può modificare l'elenco delle prassi vietate, pertanto è possibile che in futuro siano oggetto di divieto altri utilizzi dell'AI.
Un elenco parziale degli utilizzi AI proibiti al momento della pubblicazione di questo articolo include:
I sistemi AI sono considerati ad alto rischio ai sensi dell'EU AI Act, se sono un prodotto (o un suo componente di sicurezza) regolamentato da specifiche leggi dell'UE a cui fa riferimento il regolamento, come le norme sulla sicurezza dei giocattoli e sui dispositivi medico-diagnostici in vitro.
La legge elenca anche gli usi specifici generalmente considerati ad alto rischio, compresi i sistemi AI utilizzati:
Per i sistemi inclusi in questo elenco, può essere disponibile un'eccezione se il sistema AI non rappresenta una minaccia significativa per la salute, la sicurezza o i diritti delle persone.L'atto specifica diversi criteri che devono essere soddisfatti, tutti o in parte, prima che possa essere attivata un'eccezione (ad esempio, quando il sistema AI è destinato a svolgere un compito procedurale ristretto).Se fa affidamento su questa eccezione, il fornitore deve documentare la sua valutazione che il sistema non sia ad alto rischio, e le autorità di regolamentazione possono prendere visione tale valutazione.L'eccezione non è disponibile per i sistemi AI che elaborano automaticamente i dati personali per valutare o prevedere alcuni aspetti della vita di una persona, come le sue preferenze di prodotto (profilazione), che sono sempre considerati ad alto rischio.
Come nel caso dell'elenco delle pratiche AI vietate, la Commissione europea potrebbe, in futuro, aggiornare l'elenco dei sistemi AI ad alto rischio.
I sistemi AI ad alto rischio devono essere conformi a requisiti specifici. Ecco alcuni esempi:
Esistono ulteriori obblighi di trasparenza per tipi specifici di AI. Ad esempio:
Ecco alcuni obblighi per gli operatori fondamentali dei sistemi AI ad alto rischio nella catena del valore dell'AI (fornitori e utilizzatori).
I fornitori di sistemi AI ad alto rischio devono rispettare requisiti tra cui:
Gli utilizzatori di sistemi AI ad alto rischio hanno diversi obblighi, tra cui:
L'EU AI Act crea norme separate per i modelli AI per scopi generali (GPAI). I fornitori di modelli GPAI avranno alcuni obblighi come:
Se un modello GPAI è classificato come avente un rischio sistemico, i fornitori avranno obblighi aggiuntivi. Il rischio sistemico è un rischio specifico delle funzionalità ad alto impatto dei modelli GPAI che hanno un impatto significativo sul mercato dell'UE a causa della loro portata o degli effetti negativi reali o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, la pubblica sicurezza, i diritti fondamentali o la società nel suo complesso, che possono essere propagati su larga scala lungo tutta la catena del valore. La legge utilizza le risorse di addestramento come uno dei criteri per individuare il rischio sistemico. Se la quantità cumulativa di potenza di calcolo utilizzata per addestrare un modello è superiore a 10^25 operazioni in virgola mobile (FLOP, Floating Point Operation), si ritiene che abbia funzionalità ad alto impatto e rappresenti un rischio sistemico. La Commissione europea può inoltre classificare un modello come avente un rischio sistemico.
I fornitori di modelli GPAI che presentano un rischio sistemico, compresi i modelli open source gratuiti, devono soddisfare alcuni obblighi aggiuntivi:
In caso di mancata conformità alle pratiche proibite AI, le organizzazioni possono essere multate fino a 35.000.000 € o al 7% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.
Per la maggior parte delle altre violazioni, comprese la mancata conformità ai requisiti per i sistemi AI ad alto rischio, le organizzazioni possono essere multate fino a 15.000.000 € o al 3% del fatturato annuale globale, a seconda di quale sia il valore più alto.
Fornire informazioni errate, incomplete o fuorvianti alle autorità può comportare multe per le organizzazioni fino a 7.500.000 € o l'1% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.
In particolare, l'EU AI Act prevede regole diverse per multare le startup e altre piccole e medie organizzazioni. Per queste aziende, la multa è il più basso dei due importi possibili specificati sopra.
Il regolamento è entrato in vigore il 1° agosto 2024, e diverse disposizioni della legge sono entrate in vigore in più fasi. Alcune delle date più importanti di questo percorso includono:
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.
Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
Il cliente è responsabile della conformità a tutte le leggi e normative vigenti.IBM non fornisce consulenza legale, né dichiara o garantisce che i suoi servizi o prodotti assicurino al cliente la conformità a qualsivoglia legge o regolamento.