Rendere operativi i principi di AI responsabile per la difesa

Colleghi seduti alla scrivania che puntano verso lo schermo del desktop mentre discutono di qualcosa

L'intelligenza artificiale (AI) sta trasformando la società, incluso il carattere stesso della sicurezza nazionale. Riconoscendo ciò, il Dipartimento della Difesa (DoD) ha lanciato il Joint Artificial Intelligence Center (JAIC) nel 2019, il predecessore del Chief Digital and Artificial Intelligence Office (CDAO), per sviluppare soluzioni di AI che creino vantaggi militari competitivi, condizioni per l'adozione di AI incentrata sull'uomo e l'agilità delle operazioni del Dipartimento della Difesa. Tuttavia, gli ostacoli alla scalabilità, all'adozione e alla realizzazione del pieno potenziale dell'AI nel Dipartimento della Difesa sono simili a quelli del settore privato.

Un recente sondaggio IBM ha rilevato che le principali barriere che impediscono un'implementazione efficace dell'AI includono esperienza e competenze limitate in materia di AI, complessità dei dati e preoccupazioni etiche. Inoltre, secondo l'IBM Institute of Business Value, il 79% dei dirigenti afferma che l'etica dell'AI è importante per il loro approccio all'AI a livello aziendale, ma meno del 25% ha reso operativi principi comuni di etica dell'AI. Guadagnare la fiducia negli output dei modelli AI è una sfida sociotecnica che richiede una soluzione sociotecnica.

I leader della difesa impegnati a rendere operativa la cura responsabile dell'AI devono prima concordare un vocabolario condiviso, una cultura comune che guidi un uso sicuro e responsabile dell'AI, prima di implementare soluzioni tecnologiche e barriere che riducano i rischi. Il Dipartimento della Difesa può gettare solide basi per raggiungere questo obiettivo migliorando l'alfabetizzazione AI e collaborando con organizzazioni affidabili per sviluppare una governance in linea con i suoi obiettivi e valori strategici.

L'alfabetizzazione AI è un must per la sicurezza

È importante che il personale sappia come implementare l'AI per migliorare l'efficienza organizzativa. Ma è altrettanto importante che abbiano una profonda comprensione dei rischi e dei limiti dell'AI e di come implementare le misure di sicurezza e le barriere etiche appropriate. Si tratta di misure standard per il Dipartimento della Difesa o per qualsiasi agenzia governativa.

Un percorso di apprendimento AI su misura può aiutare a identificare le lacune e la formazione necessaria in modo che il personale acquisisca le conoscenze necessarie per i propri ruoli specifici. L'alfabetizzazione AI a livello di istituto è essenziale per tutto il personale per poter valutare, descrivere e rispondere rapidamente a minacce virali e pericolose in rapida evoluzione come la disinformazione e i deepfake.

IBM applica l'alfabetizzazione AI in modo personalizzato all'interno della nostra organizzazione poiché la definizione di alfabetizzazione essenziale varia a seconda della posizione di una persona.

Sostenere gli obiettivi strategici e allinearsi ai valori

In qualità di leader nell'intelligenza artificiale affidabile, IBM ha esperienza nello sviluppo di framework di governance che guidano l'uso responsabile dell'AI in linea con i valori delle organizzazioni clienti. IBM ha anche i propri framework per l'uso dell'AI all'interno di IBM, che informano posizioni politiche come l'uso della tecnologia di riconoscimento facciale.

Gli strumenti di AI sono ora utilizzati per la sicurezza nazionale e per contribuire a proteggere da violazioni dei dati e attacchi informatici. Ma l'AI supporta anche altri obiettivi strategici del Dipartimento della Difesa. Può ampliare la forza lavoro, contribuendo a renderla più efficace e ad aiutarla a riqualificarsi. Può aiutare a creare supply chain resilienti per sostenere soldati, marinai, aviatori e marines in ruoli di guerra, aiuti umanitari, mantenimento della pace e soccorso in caso di calamità.

Il CDAO include cinque principi etici di responsabilità, equità, tracciabilità, affidabilità e governabilità come parte del suo toolkit di AI responsabile. Basati sul framework esistente delle forze armate statunitensi, questi principi si fondano sui valori dell'esercito e aiutano a sostenere il suo impegno per un'AI responsabile.

Ci deve essere uno sforzo concertato per trasformare questi principi in realtà attraverso la considerazione dei requisiti funzionali e non funzionali nei modelli e nei sistemi di governance relativi a tali modelli. Di seguito, forniamo raccomandazioni generali per l'operatività dei principi etici del CDAO.

1. Responsabile

 

"Il personale del Dipartimento della Difesa adotterà i livelli appropriati di giudizio e attenzione, pur rimanendo responsabile dello sviluppo, della distribuzione e dell'utilizzo delle funzionalità di AI."

Tutti concordano sul fatto che i modelli AI dovrebbero essere sviluppati da personale attento e premuroso, ma come possono le organizzazioni educare le persone a svolgere questo lavoro? Noi consigliamo di:

  • Fomentare una cultura organizzativa che riconosce la natura sociotecnica delle sfide dell'AI. Questo deve essere comunicato fin dall'inizio e deve esserci un riconoscimento delle pratiche, delle competenze e dell'attenzione che devono essere messe nei modelli e nella loro gestione per monitorare le prestazioni.
  • Dettagliare le pratiche etiche durante tutto il ciclo di vita dell'AI, corrispondenti agli obiettivi aziendali (o alla missione), alla preparazione dei dati, alla valutazione e alla distribuzione.  In questo caso è utile il modello CRISP-DM. Lo Scaled Data Science Method di IBM, un'estensione di CRISP-DM, offre una governance lungo tutto il ciclo di vita dei modelli AI, basata sull'input collaborativo di data scientist, psicologi del lavoro e delle organizzazioni, designer, esperti di comunicazione e altri professionisti. Il metodo unisce best practice in data science, gestione dei progetti, framework e governance dell'AI. I team possono facilmente vedere e comprendere i requisiti in ogni fase del ciclo di vita, inclusa la documentazione, con chi devono parlare o collaborare e le fasi successive.
  • Fornire metadati interpretabili dei modelli AI (ad esempio, come schede informative) che specificano le persone responsabili, i benchmark delle prestazioni (rispetto a quelli umani), i dati e i metodi utilizzati, i registri degli audit (data e da chi) e lo scopo e i risultati dell'audit.

Nota: queste misure di responsabilità devono essere interpretabili anche da non esperti di AI (senza dover ricorrere a spiegazioni matematiche).

2. Equo

 

"Il Dipartimento adotterà misure deliberate per ridurre al minimo i pregiudizi non intenzionali nelle funzionalità di AI."

Tutti concordano sul fatto che l'uso dei modelli AI dovrebbe essere equo e non discriminato, ma come avviene in pratica? Noi consigliamo di:

  • Istituire un centro di eccellenza per offrire a team diversi e multidisciplinari una comunità per la formazione applicata per identificare potenziali impatti eterogenei.
  • Utilizzare strumenti di auditing per riflettere i pregiudizi esibiti nei modelli. Se la riflessione è in linea con i valori dell'organizzazione, la trasparenza sui dati e sui metodi scelti è fondamentale. Se la riflessione non è in linea con i valori organizzativi, allora questo è un segnale che qualcosa deve cambiare. Scoprire e mitigare il potenziale impatto eterogeneo causato dai pregiudizi richiede molto di più che esaminare i dati su cui il modello è stato addestrato. Le organizzazioni devono anche esaminare le persone e i processi coinvolti. Ad esempio, gli usi appropriati e inappropriati del modello sono stati comunicati chiaramente?
  • Misurare l'equità e rendere fruibili gli standard attuabili fornendo requisiti funzionali e non funzionali per diversi livelli di servizio.
  • Utilizzare framework di design thinking per valutare gli effetti indesiderati dei modelli AI, determinare i diritti degli utenti finali e rendere operativi i principi. È essenziale che gli esercizi di design thinking includano persone con esperienze di vita molto diverse: più sono diverse, meglio è.

3. Tracciabile

 

"Le funzionalità di AI del Dipartimento saranno sviluppate e implementate in modo tale che il personale interessato possieda un'adeguata comprensione della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle funzionalità di AI, comprese metodologie trasparenti e verificabili, fonti di dati, procedure di progettazione e documentazione."

È necessario rendere operativa la tracciabilità fornendo linee guida chiare a tutto il personale che utilizza l'AI:

  • È sempre opportuno spiegare chiaramente agli utenti quando interagiscono con un sistema di AI.
  • Fornire contenuti di base per i modelli AI. Consentire agli esperti del dominio di rendere accurato e mantenere fonti affidabili di dati utilizzati per addestrare i modelli. L'output del modello si basa sui dati su cui è stato eseguito l'addestramento.

IBM e i suoi partner possono fornire soluzioni AI con contenuti completi e verificabili, fondamentali per i casi d'uso ad alto rischio.

  • Acquisire i metadati chiave per rendere trasparenti i modelli AI e tenere traccia dell'inventario dei modelli. Assicurarsi che questi metadati siano interpretabili e che le informazioni corrette siano esposte al personale appropriato. L'interpretazione dei dati richiede pratica ed è uno sforzo interdisciplinare. In IBM, il nostro gruppo Design for AI mira a istruire i dipendenti sul ruolo critico dei dati nell'AI (tra gli altri fondamenti) e dona framework alla comunità open source.
  • Rendere questi metadati facilmente reperibili dalle persone (in ultima analisi alla fonte dell'output).
  • Includere l'human-in-the-loop poiché l'AI dovrebbe aumentare e assistere gli esseri umani. Ciò consente agli esseri umani di fornire feedback durante il funzionamento dei sistemi di AI.
  • Creare processi e framework per valutare i rischi eterogenei di impatto e sicurezza ben prima che il modello venga implementato o acquistato. Designare persone responsabili per mitigare questi rischi.

4. Affidabile

 

"Le funzionalità di AI del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali funzionalità saranno soggette a test e garanzie nell'ambito di quegli usi definiti durante il loro intero ciclo di vita."

Le organizzazioni devono documentare casi d'uso ben definiti e poi testarne la conformità. Per rendere operativo e scalabile questo processo è necessario un forte allineamento culturale, affinché i professionisti aderiscano agli standard più elevati anche in assenza di una supervisione diretta e costante. Le best practice includono:

  • Creare comunità che riaffermino costantemente perché output equi e affidabili sono essenziali. Molti professionisti credono fermamente che, semplicemente avendo le migliori intenzioni, non si possano ottenere effetti eterogenei. Questo è fuorviante. La formazione applicata da parte di leader della comunità altamente coinvolti che facciano sentire le persone ascoltate e incluse è di importanza critica.
  • Costruire motivazioni per i test di affidabilità sulla base delle linee guida e degli standard per i dati utilizzati nell'addestramento dei modelli. Il modo migliore per rendere tutto ciò reale è offrire esempi di cosa può accadere quando questo controllo manca.
  • Limitare l'accesso degli utenti allo sviluppo del modello, ma raccogliere prospettive diverse all'inizio di un progetto per mitigare l'introduzione di pregiudizi.
  • Eseguire controlli sulla privacy e sulla sicurezza lungo l'intero ciclo di vita dell'AI.
  • Includere misure di accuratezza negli audit regolarmente programmati. Essere del tutto trasparenti nel comunicare come le prestazioni del modello si confrontano con quelle di un essere umano. Se il modello non fornisce un risultato accurato, specificare chi è responsabile di quel modello e quali mezzi di ricorso hanno gli utenti. (Tutto questo dovrebbe essere inserito nei metadati interpretabili e reperibili).

5. Governabile

 

"Il Dipartimento progetterà e realizzerà funzionalità di AI per assolvere le funzioni previste, avendo la capacità di rilevare ed evitare conseguenze indesiderate e di disattivare i sistemi implementati che mostrano comportamenti involontari."

Per rendere operativo questo principio è necessario:

  • L'investimento nei modelli AI non si ferma alla fase di implementazione. Dedicare risorse per garantire che i modelli continuino a comportarsi come desiderato e previsto. Valutare e mitigare i rischi durante tutto il ciclo di vita dell'AI, non solo dopo la distribuzione.
  • Designare una parte responsabile che abbia un mandato finanziato per svolgere il lavoro di governance. È essenziale che disponga dell'autorità necessaria.
  • Investire nella comunicazione, nella creazione di comunità e nella formazione. Utilizzare strumenti come watsonx.governance per monitorare i sistemi di AI.
  • Acquisire e gestire l'inventario dei modelli AI come descritto sopra.
  • Implementare misure di cybersecurity in tutti i modelli.

IBM è in prima linea nel promuovere l'AI affidabile

IBM è stata in prima linea nella promozione di principi di AI affidabile e un leader di pensiero nella governance dei sistemi di AI sin dalla loro nascita. Seguiamo principi di fiducia e trasparenza di lunga data che chiariscono che il ruolo dell'AI è aumentare, non sostituire, le competenze e il giudizio umani.

Nel 2013, IBM ha intrapreso il viaggio della spiegabilità e della trasparenza nell'AI e nel machine learning. IBM è un'azienda leader nell'etica dell'AI: ha nominato un responsabile globale per l'etica dell'AI nel 2015 e ha creato un comitato per l'etica dell'AI nel 2018. Questi esperti lavorano per garantire che i nostri principi e impegni siano rispettati nei nostri impegni commerciali globali. Nel 2020, IBM ha donato i suoi toolkit di AI responsabile alla Linux Foundation per contribuire a costruire il futuro di un'AI equa, sicura e affidabile.

IBM guida gli sforzi globali per plasmare il futuro delle metriche, degli standard e delle best practice dell'AI responsabile e etica:

  • Ha avviato un dialogo con l'amministrazione del presidente Biden sullo sviluppo del suo ordine esecutivo sull'AI
  • Sono stati divulgati/depositati oltre 70 brevetti per AI responsabile
  • Il CEO di IBM Arvind Krishna co-presiede il comitato direttivo della Global AI Action Alliance lanciato dal World Economic Forum (WEF)
  • L'Alliance si concentra sull'accelerazione dell'adozione di un'intelligenza artificiale inclusiva, trasparente e affidabile a livello globale
  • Ha co-redatto due documenti pubblicati dal WEF sull'AI generativa, incentrati sullo sblocco del valore e sullo sviluppo di sistemi e tecnologie sicuri
  • Co-presidente del comitato Trusted AI della Linux Foundation AI
  • Ha contribuito al NIST AI Risk Management Framework; collabora con il NIST nell'area delle metriche, degli standard e dei test dell'AI

Rendere accurata l'AI responsabile è una sfida multiforme perché richiede che i valori umani si riflettano in modo affidabile e coerente nella nostra tecnologia. Ma ne vale la pena. Riteniamo che le linee guida di cui sopra possano aiutare il Dipartimento della Difesa a rendere operativa l'AI affidabile e ad aiutarlo a compiere la sua missione.

Per ulteriori informazioni su come IBM può aiutare, visita Consulenza sulla governance dell'AI | IBM

Ulteriori risorse:

Autore

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

Fasi successive

Ottieni l'accesso completo a funzionalità che coprono l'intero ciclo di vita dello sviluppo dell'AI. Crea soluzioni AI all'avanguardia con interfacce intuitive, workflow e accesso alle API e agli SDK standard di settore.

Esplora watsonx.ai Prenota una demo live