L'intelligenza artificiale (AI) sta trasformando la società, incluso il carattere stesso della sicurezza nazionale. Riconoscendo ciò, il Dipartimento della Difesa (DoD) ha lanciato il Joint Artificial Intelligence Center (JAIC) nel 2019, il predecessore del Chief Digital and Artificial Intelligence Office (CDAO), per sviluppare soluzioni di AI che creino vantaggi militari competitivi, condizioni per l'adozione di AI incentrata sull'uomo e l'agilità delle operazioni del Dipartimento della Difesa. Tuttavia, gli ostacoli alla scalabilità, all'adozione e alla realizzazione del pieno potenziale dell'AI nel Dipartimento della Difesa sono simili a quelli del settore privato.
Un recente sondaggio IBM ha rilevato che le principali barriere che impediscono un'implementazione efficace dell'AI includono esperienza e competenze limitate in materia di AI, complessità dei dati e preoccupazioni etiche. Inoltre, secondo l'IBM Institute of Business Value, il 79% dei dirigenti afferma che l'etica dell'AI è importante per il loro approccio all'AI a livello aziendale, ma meno del 25% ha reso operativi principi comuni di etica dell'AI. Guadagnare la fiducia negli output dei modelli AI è una sfida sociotecnica che richiede una soluzione sociotecnica.
I leader della difesa impegnati a rendere operativa la cura responsabile dell'AI devono prima concordare un vocabolario condiviso, una cultura comune che guidi un uso sicuro e responsabile dell'AI, prima di implementare soluzioni tecnologiche e barriere che riducano i rischi. Il Dipartimento della Difesa può gettare solide basi per raggiungere questo obiettivo migliorando l'alfabetizzazione AI e collaborando con organizzazioni affidabili per sviluppare una governance in linea con i suoi obiettivi e valori strategici.
È importante che il personale sappia come implementare l'AI per migliorare l'efficienza organizzativa. Ma è altrettanto importante che abbiano una profonda comprensione dei rischi e dei limiti dell'AI e di come implementare le misure di sicurezza e le barriere etiche appropriate. Si tratta di misure standard per il Dipartimento della Difesa o per qualsiasi agenzia governativa.
Un percorso di apprendimento AI su misura può aiutare a identificare le lacune e la formazione necessaria in modo che il personale acquisisca le conoscenze necessarie per i propri ruoli specifici. L'alfabetizzazione AI a livello di istituto è essenziale per tutto il personale per poter valutare, descrivere e rispondere rapidamente a minacce virali e pericolose in rapida evoluzione come la disinformazione e i deepfake.
IBM applica l'alfabetizzazione AI in modo personalizzato all'interno della nostra organizzazione poiché la definizione di alfabetizzazione essenziale varia a seconda della posizione di una persona.
In qualità di leader nell'intelligenza artificiale affidabile, IBM ha esperienza nello sviluppo di framework di governance che guidano l'uso responsabile dell'AI in linea con i valori delle organizzazioni clienti. IBM ha anche i propri framework per l'uso dell'AI all'interno di IBM, che informano posizioni politiche come l'uso della tecnologia di riconoscimento facciale.
Gli strumenti di AI sono ora utilizzati per la sicurezza nazionale e per contribuire a proteggere da violazioni dei dati e attacchi informatici. Ma l'AI supporta anche altri obiettivi strategici del Dipartimento della Difesa. Può ampliare la forza lavoro, contribuendo a renderla più efficace e ad aiutarla a riqualificarsi. Può aiutare a creare supply chain resilienti per sostenere soldati, marinai, aviatori e marines in ruoli di guerra, aiuti umanitari, mantenimento della pace e soccorso in caso di calamità.
Il CDAO include cinque principi etici di responsabilità, equità, tracciabilità, affidabilità e governabilità come parte del suo toolkit di AI responsabile. Basati sul framework esistente delle forze armate statunitensi, questi principi si fondano sui valori dell'esercito e aiutano a sostenere il suo impegno per un'AI responsabile.
Ci deve essere uno sforzo concertato per trasformare questi principi in realtà attraverso la considerazione dei requisiti funzionali e non funzionali nei modelli e nei sistemi di governance relativi a tali modelli. Di seguito, forniamo raccomandazioni generali per l'operatività dei principi etici del CDAO.
"Il personale del Dipartimento della Difesa adotterà i livelli appropriati di giudizio e attenzione, pur rimanendo responsabile dello sviluppo, della distribuzione e dell'utilizzo delle funzionalità di AI."
Tutti concordano sul fatto che i modelli AI dovrebbero essere sviluppati da personale attento e premuroso, ma come possono le organizzazioni educare le persone a svolgere questo lavoro? Noi consigliamo di:
Nota: queste misure di responsabilità devono essere interpretabili anche da non esperti di AI (senza dover ricorrere a spiegazioni matematiche).
"Il Dipartimento adotterà misure deliberate per ridurre al minimo i pregiudizi non intenzionali nelle funzionalità di AI."
Tutti concordano sul fatto che l'uso dei modelli AI dovrebbe essere equo e non discriminato, ma come avviene in pratica? Noi consigliamo di:
"Le funzionalità di AI del Dipartimento saranno sviluppate e implementate in modo tale che il personale interessato possieda un'adeguata comprensione della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle funzionalità di AI, comprese metodologie trasparenti e verificabili, fonti di dati, procedure di progettazione e documentazione."
È necessario rendere operativa la tracciabilità fornendo linee guida chiare a tutto il personale che utilizza l'AI:
IBM e i suoi partner possono fornire soluzioni AI con contenuti completi e verificabili, fondamentali per i casi d'uso ad alto rischio.
"Le funzionalità di AI del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali funzionalità saranno soggette a test e garanzie nell'ambito di quegli usi definiti durante il loro intero ciclo di vita."
Le organizzazioni devono documentare casi d'uso ben definiti e poi testarne la conformità. Per rendere operativo e scalabile questo processo è necessario un forte allineamento culturale, affinché i professionisti aderiscano agli standard più elevati anche in assenza di una supervisione diretta e costante. Le best practice includono:
"Il Dipartimento progetterà e realizzerà funzionalità di AI per assolvere le funzioni previste, avendo la capacità di rilevare ed evitare conseguenze indesiderate e di disattivare i sistemi implementati che mostrano comportamenti involontari."
Per rendere operativo questo principio è necessario:
IBM è stata in prima linea nella promozione di principi di AI affidabile e un leader di pensiero nella governance dei sistemi di AI sin dalla loro nascita. Seguiamo principi di fiducia e trasparenza di lunga data che chiariscono che il ruolo dell'AI è aumentare, non sostituire, le competenze e il giudizio umani.
Nel 2013, IBM ha intrapreso il viaggio della spiegabilità e della trasparenza nell'AI e nel machine learning. IBM è un'azienda leader nell'etica dell'AI: ha nominato un responsabile globale per l'etica dell'AI nel 2015 e ha creato un comitato per l'etica dell'AI nel 2018. Questi esperti lavorano per garantire che i nostri principi e impegni siano rispettati nei nostri impegni commerciali globali. Nel 2020, IBM ha donato i suoi toolkit di AI responsabile alla Linux Foundation per contribuire a costruire il futuro di un'AI equa, sicura e affidabile.
IBM guida gli sforzi globali per plasmare il futuro delle metriche, degli standard e delle best practice dell'AI responsabile e etica:
Rendere accurata l'AI responsabile è una sfida multiforme perché richiede che i valori umani si riflettano in modo affidabile e coerente nella nostra tecnologia. Ma ne vale la pena. Riteniamo che le linee guida di cui sopra possano aiutare il Dipartimento della Difesa a rendere operativa l'AI affidabile e ad aiutarlo a compiere la sua missione.
Per ulteriori informazioni su come IBM può aiutare, visita Consulenza sulla governance dell'AI | IBM
Ulteriori risorse: