L'European Artificial Intelligence Act sta determinando nuovi livelli di supervisione umana e conformità normativa per l'AI (intelligenza artificiale) all'interno dell'Unione europea. Analogamente al GDPR per la privacy, l'EU AI Act potrà impostare il tono delle prossime normative sull'AI a livello globale.
All'inizio del 2024, il Parlamento europeo, composto da 27 Stati membri, ha approvato all'unanimità l'EU AI Act. La legge sta ora attraversando le fasi finali del processo legislativo e dovrebbe essere implementata in più fasi nella seconda metà del 2024. Comprendere le disposizioni dell'EU AI Act e prepararsi alla conformità è fondamentale per qualsiasi organizzazione che sviluppa, implementa o utilizza AI, o sta pianificando di farlo.
L’AI Act mira a "rafforzare la posizione dell’Europa come polo globale di eccellenza nell’AI, dal laboratorio al mercato, garantire che l’AI in Europa rispetti i valori e le regole stabiliti e sfrutti il potenziale dell’AI per l’uso industriale”.
L'obiettivo principale dell'AI Act dell'UE è rafforzare la conformità normativa nei settori della gestione del rischio, della protezione dei dati, dei sistemi di gestione della qualità, della trasparenza, della supervisione umana, dell'accuratezza, della robustezza e della sicurezza informatica. Mira a promuovere la trasparenza e la responsabilità nel modo in cui i sistemi AI vengono sviluppati e implementati, contribuendo a garantire che i prodotti AI immessi sul mercato siano sicuri da utilizzare per gli individui.
L'EU AI Act mira ad affrontare la sfida di sviluppo e implementazione dell'AI in modo responsabile in tutti i settori, compresi quelli altamente regolamentati come la sanità, la finanza e l'energia. Per i settori che forniscono servizi essenziali ai clienti, come le assicurazioni, le banche e il retail, la legge richiede l'uso di una valutazione d'impatto sui diritti fondamentali che descriva in dettaglio in che modo l'uso dell'AI influenzerà i diritti dei clienti.
L'EU AI Act prevede che i modelli AI per uso generale, compresi i sistemi di AI generativa come i modelli LLM e i foundation model, aderiscano a un sistema di classificazione basato su livelli di rischio sistematici. I livelli di rischio più elevati presentano maggiori requisiti per la trasparenza, tra cui la documentazione, il reporting e la valutazione dei modelli. Comprendono inoltre la valutazione e la mitigazione dei rischi di sistema, la segnalazione di incidenti gravi e la fornitura di protezioni in materia di cybersecurity. Inoltre, questi requisiti di trasparenza includono la conservazione di una documentazione tecnica aggiornata, fornendo un riepilogo dei contenuti utilizzati per l'addestramento dei modelli e il rispetto delle leggi europee sul copyright.
L'EU AI Act segue un approccio basato sul rischio, utilizzando livelli per classificare il livello di rischio che i sistemi di AI rappresentano per lo stato di salute, la sicurezza o i diritti fondamentali di un individuo. I tre livelli sono:
L'EU AI Act impone inoltre delle regole su come informare i clienti quando si utilizza un chatbot o un sistema di riconoscimento delle emozioni. Esistono requisiti aggiuntivi per etichettare i deep fake e individuare quando i contenuti di AI generativa vengono utilizzati nei media.
Il mancato rispetto dell'EU AI Act può essere costoso:
7,5 milioni di euro o l'1,5% del fatturato annuo totale mondiale di un'azienda (a seconda di quale sia il valore più alto) per la fornitura di informazioni errate. 15 milioni di euro o il 3% del fatturato annuo totale mondiale di un'azienda (a seconda di quale sia il valore più elevato) per violazioni degli obblighi previsti dall'AI Act.
— VentureBeat
L'AI Act dell'Unione Europea è attualmente il quadro giuridico più completo per la regolamentazione dell'AI. I governi di tutto il mondo ne stanno prendendo atto e stanno discutendo attivamente come regolamentare la tecnologia dell'AI per garantire che i cittadini, le aziende e le agenzie governative siano protetti da potenziali rischi. Inoltre, gli stakeholder, dai consigli di amministrazione aziendali ai consumatori, stanno iniziando a riconoscere l'importanza della fiducia, della trasparenza, dell'equità e della responsabilità in ambito AI.
IBM watsonx.governance aiuta ad accelerare workflow AI responsabili, trasparenti e spiegabili
IBM® watsonx.governance ti consente di accelerare la governance dell'AI, ovvero la direzione, la gestione e il monitoraggio delle attività di AI della tua organizzazione. Utilizza l'automazione software per rafforzare la capacità di mitigare i rischi, gestire i requisiti normativi e governare il ciclo di vita per i modelli di AI generativa e di apprendimento automatico (ML).
Watsonx.governance aiuta a promuovere la trasparenza, la spiegabilità e la documentazione dei modelli in 3 aree chiave:
È responsabilità del cliente garantire la conformità a normative e regolamenti applicabili. IBM non fornisce consulenza legale né dichiara o garantisce che i propri servizi o prodotti assicurino al cliente la conformità con qualsivoglia legge o regolamento.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com