L'Artificial Intelligence Act dell'Unione Europea, noto anche come EU AI Act o AI Act, è una legge che regolamenta lo sviluppo e/o l'utilizzo dell'intelligenza artificiale (AI) nell'Unione Europea (UE). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse alle AI in base al rischio che rappresentano.
Considerato il primo quadro normativo completo al mondo per l'AI, l'EU AI Act proibisce alcuni usi dell'AI in modo definitivo e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per altri.
L'atto crea anche regole per modelli di AI generici, come il modello di base open source Granite di IBM e Llama 3 di Meta.
Le sanzioni possono variare da 7,5 milioni di euro, o l'1,5% del fatturato annuo globale, a 35 milioni di euro, o il 7% del fatturato annuo mondiale, a seconda del tipo di violazione della conformità.
Allo stesso modo in cui il Regolamento generale sulla protezione dei dati (GDPR) dell'UE ha ispirato altre nazioni ad adottare leggi sulla privacy dei dati, gli esperti prevedono che l'EU AI Act stimolerà lo sviluppo di una governance dell'AI e di standard etici in tutto il mondo.
L'EU AI Act si applica a più operatori della catena del valore dell'AI, come fornitori, utilizzatori, importatori, distributori, produttori e rappresentanti autorizzati). Degne di menzione sono le definizioni di fornitori, utilizzatori e importatori ai sensi dell'EU AI Act.
I fornitori sono persone o organizzazioni che sviluppano un sistema AI o un modello AI per scopi generali (GPAI), o lo fanno sviluppare per loro conto, per poi immetterlo sul mercato o metterlo in servizio con il loro nome o brand.
La legge definisce in senso ampio un sistema AI come un sistema che può, con un certo grado di autonomia, elaborare input per dedurre come generare output (ad esempio, previsioni, raccomandazioni, decisioni, contenuti) che possono influenzare ambienti fisici o virtuali. Definisce i GPAI come modelli AI che mostrano una notevole generalità, sono in grado di svolgere competentemente un'ampia gamma di compiti distinti e che possono essere integrati in vari sistemi o applicazioni AI a valle. Ad esempio, un foundation model è un GPAI, mentre uno strumento di chatbot o AI generativa basato su quel modello sarebbe un sistema AI.
Gli utilizzatori sono persone e organizzazioni che utilizzano i sistemi AI. Ad esempio, un'organizzazione che utilizza un chatbot AI per gestire le richieste di servizio clienti sarebbe un utilizzatore.
Gli importatori sono persone e organizzazioni situate o stabilite nell'UE che portano sul mercato dell'UE i sistemi AI di una persona o di un'azienda esterna all'UE.
L'EU AI Act si applica anche ai fornitori e agli utilizzatori al di fuori dell'UE se la loro AI o i relativi output sono utilizzati nell'UE.
Ad esempio, supponiamo che un'azienda con sede nell'UE invii i dati a un fornitore di AI esterno all'UE, che utilizza l'AI per elaborare i dati e poi invia nuovamente il risultato all'azienda UE perché possa utilizzarlo. Poiché l'output del sistema AI del fornitore viene utilizzato nell'UE, il fornitore sarà vincolato all'EU AI Act.
I fornitori al di fuori dell'UE che offrono servizi AI nell'UE devono designare rappresentanti autorizzati nell'UE per coordinare gli sforzi di conformità per loro conto.
Sebbene la legge abbia un'ampia portata, alcuni usi dell'AI sono esenti. Gli usi puramente personali dell'AI e i modelli e sistemi AI utilizzati solo per la ricerca e lo sviluppo scientifici sono esempi di usi esenti.
L'EU AI Act regola i sistemi AI in base al livello di rischio. Con rischio qui si fa riferimento alla probabilità e alla gravità del potenziale danno. Alcune delle disposizioni più importanti includono:
I sistemi AI che non rientrano in una delle categorie di rischio dell'EU AI Act non sono soggetti ai requisiti previsti dalla legge (sono spesso soprannominati categoria di "rischio minimo"), anche se alcuni potrebbero dover soddisfare obblighi di trasparenza e rispettare altre leggi esistenti. Gli esempi includono i filtri antispam per le e-mail e i videogiochi. Molti usi comuni dell'AI oggi rientrano in questa categoria.
Vale la pena notare che molti dei dettagli più fini dell'EU AI Act relativi all'implementazione sono ancora in fase di definizione. Ad esempio, la legge rileva che la Commissione europea pubblicherà ulteriori linee guida su requisiti come piani di monitoraggio post-commercializzazione e riepiloghi dei dati di addestramento.
L'EU AI Act elenca esplicitamente alcune pratiche di AI vietate che si ritiene rappresentino un livello di rischio inaccettabile. Ad esempio, lo sviluppo o l'utilizzo di un sistema AI che manipoli intenzionalmente le persone spingendole a prendere decisioni pericolosi che altrimenti non prenderebbero è considerato di fatto un rischio inaccettabile per gli utenti ed è una pratica AI proibita.
La Commissione europea può modificare l'elenco delle pratiche vietate nell'atto, pertanto è possibile che in futuro vengano vietate ulteriori pratiche di AI.
Un elenco parziale delle pratiche AI proibite al momento della pubblicazione di questo articolo include:
I sistemi AI sono considerati ad alto rischio ai sensi dell'EU AI Act se sono un prodotto o un suo componente di sicurezza regolamentato da specifiche leggi dell'UE a cui fa riferimento l'atto, come le leggi sulla sicurezza dei giocattoli e sui dispositivi medico-diagnostici in vitro.
La legge elenca anche gli usi specifici generalmente considerati ad alto rischio, compresi i sistemi AI utilizzati:
Per i sistemi inclusi in questo elenco, può essere disponibile un'eccezione se il sistema AI non rappresenta una minaccia significativa per la salute, la sicurezza o i diritti delle persone. L'atto specifica diversi criteri che devono essere soddisfatti, tutti o in parte, prima che possa essere attivata un'eccezione (ad esempio, quando il sistema AI è destinato a svolgere un compito procedurale ristretto). Se fa affidamento su questa eccezione, il fornitore deve documentare la sua valutazione che il sistema non sia ad alto rischio, e le autorità di regolamentazione possono prendere visione tale valutazione. L'eccezione non è disponibile per i sistemi AI che elaborano automaticamente i dati personali per valutare o prevedere alcuni aspetti della vita di una persona, come le sue preferenze di prodotto (profilazione), che sono sempre considerati ad alto rischio.
Come nel caso dell'elenco delle pratiche di AI vietate, la Commissione europea potrebbe aggiornare l'elenco dei sistemi AI ad alto rischio in futuro.
I sistemi AI ad alto rischio devono essere conformi a requisiti specifici. Ecco alcuni esempi:
Esistono ulteriori obblighi di trasparenza per tipi specifici di AI. Ad esempio:
Ecco alcuni obblighi per gli operatori fondamentali dei sistemi AI ad alto rischio nella catena del valore dell'AI (fornitori e utilizzatori).
I fornitori di sistemi AI ad alto rischio devono rispettare requisiti tra cui:
Gli utilizzatori di sistemi AI ad alto rischio hanno diversi obblighi, tra cui:
L'EU AI Act crea norme separate per i modelli AI per scopi generali (GPAI). I fornitori di modelli GPAI avranno alcuni obblighi come:
Se un modello GPAI è classificato come avente un rischio sistemico, i fornitori avranno obblighi aggiuntivi. Il rischio sistemico è un rischio specifico delle funzionalità ad alto impatto dei modelli GPAI che hanno un impatto significativo sul mercato dell'UE a causa della loro portata o degli effetti negativi reali o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, la pubblica sicurezza, i diritti fondamentali o la società nel suo complesso, che possono essere propagati su larga scala lungo tutta la catena del valore. La legge utilizza le risorse di addestramento come uno dei criteri per individuare il rischio sistemico. Se la quantità cumulativa di potenza di calcolo utilizzata per addestrare un modello è superiore a 10^25 operazioni in virgola mobile (FLOP, Floating Point Operation), si ritiene che abbia funzionalità ad alto impatto e rappresenti un rischio sistemico. La Commissione europea può inoltre classificare un modello come avente un rischio sistemico.
I fornitori di modelli GPAI che presentano un rischio sistemico, compresi i modelli open source gratuiti, devono soddisfare alcuni obblighi aggiuntivi, come:
In caso di mancata conformità alle pratiche proibite AI, le organizzazioni possono essere multate fino a 35.000.000 € o al 7% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.
Per la maggior parte delle altre violazioni, comprese la mancata conformità ai requisiti per i sistemi AI ad alto rischio, le organizzazioni possono essere multate fino a 15.000.000 € o al 3% del fatturato annuale globale, a seconda di quale sia il valore più alto.
Fornire informazioni errate, incomplete o fuorvianti alle autorità può comportare multe per le organizzazioni fino a 7.500.000 € o l'1% del fatturato annuo globale, a seconda di quale sia l'importo più elevato.
In particolare, l'EU AI Act prevede regole diverse per multare le startup e altre piccole e medie organizzazioni. Per queste aziende, la multa è il più basso dei due importi possibili specificati sopra.
La legge è entrata in vigore il 1° agosto 2024 e diverse disposizioni della legge sono entrate in vigore in più fasi. Alcune delle date più importanti di questo percorso includono:
Impara come l’AI Act dell’UE influenzerà le imprese, come prepararti, come mitigare i rischi e come bilanciare regolamentazione e innovazione.
Scopri le nuove sfide dell’AI generativa, la necessità di governare i modelli AI e machine learning (ML) e le fasi per creare un framework AI affidabile, trasparente e spiegabile.
Scopri come promuovere pratiche etiche e conformi con un portfolio di prodotti AI per modelli di AI generativa.
Acquisisci una comprensione più approfondita su come garantire l’equità, gestire la deriva, mantenere la qualità e migliorare la spiegabilità con watsonx.governance.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.
Il cliente è responsabile della conformità a tutte le leggi e normative vigenti. IBM non fornisce consulenza legale, né dichiara o garantisce che i suoi servizi o prodotti assicurino al cliente la conformità a qualsivoglia legge o regolamento.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com