Per le aziende di piccole e grandi dimensioni, l'intelligenza artificiale (AI) è associata a varie parole interessanti come innovazione, opportunità e vantaggio competitivo. Ma c'è un'altra parola non meno importante: conformità.
Circa il 73% delle aziende utilizza già l'AI analitica e generativa e il 72% dei CEO afferma che il vantaggio competitivo dipende da chi impiega l'AI più avanzata.1
Ma questo boom nell'uso dell'AI e il suo entusiasmante potenziale sono accompagnati dalle crescenti preoccupazioni sull'etica e sulla sicurezza delle tecnologie che implementano questa tecnologia. Se uno sviluppo imperfetto porta a algoritmi distorti che perpetuano la discriminazione (nelle assunzioni, nelle forze dell'ordine o nelle decisioni finanziarie, ad esempio) le conseguenze potrebbero essere disastrose e durature.
Di conseguenza, aziende, paesi e responsabili politici stanno valutando la governance dell'AI e stabilendo nuove regole su come l'AI può essere utilizzata e sviluppata. Scopri cos'è la conformità all'AI, perché è importante per le aziende e quali iniziative possono adottare le aziende per rimanere conformi in un panorama normativo in rapida evoluzione.
La conformità all'AI si riferisce alle decisioni e alle pratiche che consentono alle aziende di rimanere in linea con le leggi e i regolamenti che regolano l'uso dei sistemi AI. Questi standard includono leggi, regolamenti e politiche interne progettate per aiutare a garantire che le organizzazioni sviluppino modelli Ai e i loro algoritmi in modo responsabile.
Ma i processi di conformità all'AI non si limitano al rispetto dei requisiti legali. Riguardano anche la creazione di fiducia tra gli stakeholder e la promozione della trasparenza e dell'equità nel processo decisionale. Inoltre, sono essenziali per la sicurezza e, considerato che l'AI può essere sfruttata da malintenzionati, le misure di cybersecurity e le strategie di gestione del rischio solide sono centrali nella conformità all'AI.
I processi di conformità all'AI aiutano le aziende a evitare i rischi finanziari, legali e di immagine associati all'uso degli strumenti di AI.
Più le aziende utilizzano l'AI, più è probabile che si imbattano in situazioni in cui la tecnologia prende pieghe inaspettate o errate. Ad esempio, un'azienda ha abbandonato il suo strumento di assunzioni basato sull'AI dopo aver scoperto che perpetuava una discriminazione di genere a causa dei materiali utilizzati per addestrarlo.2 Altre indagini hanno scoperto che alcune richieste di prestito basate su algoritmi possono portare a discriminazioni nei confronti dei richiedenti di colore.3
Le preoccupazioni per questi problemi stanno facendo crescere l'impegno per standardizzare il modo in cui l'AI viene sviluppata e utilizzata dalle aziende. Nel 2024, l'Unione europea è diventata il primo grande mercato a imporre norme sull'AI con l'introduzione della legge sull'AI. Altre giurisdizioni, tra cui Stati Uniti e Cina, stanno sviluppando le proprie normative sull'AI.
I costi della mancata conformità possono essere elevati. Ai sensi del Regolamento generale sulla protezione dei dati (GDPR) dell'UE, le aziende possono incorrere in multe fino a 20 milioni di euro o il 4% del loro fatturato annuo globale, a seconda di quale sia l'importo più elevato. Negli Stati Uniti, la Federal Trade Commission (FTC) può adottare misure coercitive nei confronti delle aziende per violazioni legate all’AI, come l’uso di algoritmi di apprendimento automatico distorti.4
La conformità è essenziale anche per proteggere la reputazione del marchio. Un sondaggio del 2024 condotto da KPMG ha rilevato che il 78% dei consumatori ritiene che le organizzazioni che utilizzano l'AI abbiano la responsabilità di contribuire a garantire che venga sviluppata in modo etico.5 In caso contrario, si rischia di perdere la fiducia delle aziende e dei consumatori.
Contribuendo a garantire che i sistemi AI siano affidabili, trasparenti e responsabili, le aziende possono promuovere l'innovazione, migliorare l'efficienza e ottenere un vantaggio competitivo sul mercato.
Se la conformità normativa consistesse nel soddisfare una serie chiara di requisiti, il percorso da seguire sarebbe semplice. Tuttavia, con la stessa rapidità con cui le tecnologie AI si evolvono, aumentano anche le diverse linee guida volte a governarle.
La tecnologia stessa complica le attività di conformità. Comprendere e interpretare i modelli AI e gli algoritmi può essere tecnicamente difficile, soprattutto perché molti sistemi AI operano in tempo reale. Tenere il passo con l'evoluzione delle normative a questa velocità può essere complicato e il rapido avanzamento dell'AI richiede alle aziende di adattare costantemente i propri programmi di conformità.
I paesi stanno introducendo standard di AI che potrebbero rimodellare il modo in cui la tecnologia viene governata a livello globale. Oltre a queste leggi e regolamenti specifici, le aziende e i fornitori di AI devono anche rispettare un crescente intreccio di regole sulla privacy dei dati, la discriminazione e la cybersecurity. Per complicare ulteriormente le cose, questi requisiti a volte si applicano non solo alle aziende e ai fornitori di AI che operano nell'area specifica, ma anche a chiunque conduca affari al suo interno.
Alcune questioni e normative chiave includono:
Il GDPR europeo stabilisce standard specifici per la privacy e l'analisi dei dati e l'uso dei dati personali. La Legge sull'IA dell'UE, considerato il primo framework normativo completo al mondo per l'AI, ne proibisce determinati usi e impone requisiti di gestione del rischio e trasparenza per altri. Segue un approccio alla regolamentazione dell'AI basato sul rischio, con mandati più severi per i sistemi ad alto rischio.
Gli Stati Uniti non dispongono ancora di una normativa completa, ma esistono vari requisiti di conformità a livello federale e statale. Ad esempio, l'ordine esecutivo Maintaining American Leadership in Artificial Intelligence stabilisce le linee guida per lo sviluppo e l'uso dell'AI. Le leggi in settori specifici, come l'Health Insurance Portability and Accountability Act (HIPAA) o il Fair Credit Reporting Act (FCRA), potrebbero applicarsi anche all'AI.
Nell'agosto 2023, la Cina ha introdotto dei regolamenti specifici per l'AI generativa, chiamati Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa. Queste misure includono standard di contenuto e regole per la privacy dei dati, l'etichettatura e le licenze di AI generativa. La Cina ha anche normative specifiche relative agli algoritmi di raccomandazione basati sull'AI e alle tecnologie di sintesi dell'immagine, come i deepfake.
Sebbene la conformità all'AI sia fondamentale in tutti i settori, è particolarmente importante nei seguenti:
I casi d'uso per AI nell'assistenza sanitaria includono la diagnosi delle malattie, la scoperta di farmaci e la medicina personalizzata. Il mancato rispetto di normative come l'Health Insurance Portability and Accountability Act (HIPAA) degli Stati Uniti, che protegge la privacy dei pazienti, potrebbe comportare multe o ripercussioni legali. Inoltre, algoritmi distorti o addestrati in maniera inadeguata possono portare a diagnosi errate o piani terapeutici non adatti ai pazienti.
L'AI ha numerose applicazioni in ambito finanziario, dal rilevamento delle frodi alla valutazione dei rischi, fino alle attività antiriciclaggio. Tuttavia, queste applicazioni di AI devono essere conformi a normative quali il Fair Credit Reporting Act (FCRA) degli Stati Uniti e la direttiva europea sui mercati degli strumenti finanziari (MiFID II). L'impegno per la conformità all'AI mira a impedire agli algoritmi la discriminazione nelle richieste di prestito e in altri processi decisionali fondamentali.
I professionisti delle risorse umane utilizzano sempre più strumenti con tecnologia AI per l'automazione delle attività di routine e per semplificare lo screening dei curriculum, la valutazione dei candidati e il monitoraggio dei dipendenti. Ma se gli algoritmi vengono addestrati su dati distorti o inadeguati, possono dare luogo a distorsioni ingiuste e potenzialmente illegali. La conformità alle leggi anti-discriminazione e alle normative sulla protezione dei dati aiuta a garantire trasparenza, equità e privacy.
Le aziende sono sempre più consapevoli della necessità di rispettare i requisiti normativi esistenti in materia di AI e di prepararsi alle norme future. Un sondaggio tra esperti internazionali di conformità e di rischio ha rilevato che più della metà degli intervistati nutre preoccupazioni in merito alla privacy dei dati, alla trasparenza degli algoritmi e all'uso improprio o all'incomprensione relativi all'intelligenza artificiale.6
Un altro studio sui vertici aziendali ha rilevato che l'80% intende aumentare gli investimenti in un approccio responsabile all'intelligenza artificiale per rafforzare la fiducia e la sicurezza nei confronti dei propri modelli.7 Di conseguenza, molte aziende stanno adottando misure proattive per contribuire a garantire la conformità AI.
Alcune aziende stanno introducendo framework che delineano politiche, procedure e responsabilità interne per lo sviluppo e l'uso etici dell'AI. Microsoft, ad esempio, ha pubblicato il Responsible AI Standard, che include la conduzione regolare di valutazioni del rischio, l'implementazione di misure di protezione dei dati e la priorità della trasparenza e della responsabilità nel processo decisionale.8 E i Principi dell'IA di Google, aggiornati nel 2023, sottolineano l'importanza dell'equità, della trasparenza e della privacy nello sviluppo dell'AI.9
Le aziende stanno inoltre coinvolgendo attivamente le autorità di regolamentazione e gli stakeholder del settore per rimanere informate sulle modifiche normative e sui problemi di conformità. Un sondaggio IBM tra i dirigenti aziendali ha rilevato che il 74% ha intenzione di partecipare a discussioni con colleghi o collaborare con i responsabili politici sull'intelligenza artificiale. Questi sforzi aiutano le imprese a prepararsi per le nuove normative e a partecipare allo sviluppo delle linee guida future.
Per semplificare gli sforzi di conformità, le aziende stanno investendo in vari strumenti e tecnologie di conformità basati sull'AI. Ad esempio, gli strumenti di AI spiegabili (XAI) possono aiutare le aziende a comprendere e interpretare le decisioni prese dai modelli AI, mentre i portfolio di governance dell'AI possono fornire funzionalità di monitoraggio e audit in tempo reale. I prodotti di governance, come IBM® watsonx.governance offrono toolkit per rimanere aggiornati sulle normative, valutare il rischio e gestire l'evoluzione del modello.
Man mano che continuano a emergere i progressi nella tecnologia dell'AI, aumentano anche i rischi e le sfide associati al suo utilizzo. La chiave è adottare un approccio proattivo, il che significa investire nelle risorse, competenze e tecnologie necessarie per sviluppare e implementare solidi framework di governance dell'AI. È anche necessaria la promozione di una cultura della trasparenza, della responsabilità e della fiducia nello sviluppo e nell'uso dei sistemi AI. Dare priorità alla conformità dell'AI aiuta le aziende a mitigare questi rischi e consente loro di sfruttarne appieno il potenziale.
1 PwC’s 2024 US Responsible AI Survey, PricewaterhouseCoopers, aprile 2024
2 Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, ottobre 2018
3 The secret bias hidden in mortgage-approval algorithms, Associated Press, agosto 2021
4 California company settles FTC allegations it deceived consumers about use of facial recognition in photo storage app, Federal Trade Commission, gennaio 2021
5 KPMG Generative AI Consumer Trust Survey, KPMG, gennaio 2024
6 How can Artificial Intelligence transform risk and compliance?, Moody’s, febbraio 2024
7 From AI compliance to competitive advantage: Becoming responsible by design, Accenture, giugno 2022
8 Microsoft’s Responsible AI Standard, Microsoft, giugno 2022
9 Google AI: Our Principles, Google, marzo 2023
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.
Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.