I responsabili del sourcing, degli acquisti e della gestione dei fornitori (SVPM) hanno molto da fare per quanto riguarda l'inclusione di una governance dell'AI responsabile nei loro software e contratti. Un recente report di Gartner avverte che i leader dell'SPVM che trascurano la necessità di incorporare la governance dell'AI stanno esponendo la loro organizzazione a rischi significativi.
"La maggior parte dei contratti dei fornitori di software e cloud non prevede impegni espliciti che li rendano responsabili di fornire un'AI responsabile, mentre altri contratti includono clausole di esclusione della responsabilità per sistemi di AI e output irresponsabili", ha dichiarato Gartner.
Quando parlo a un destinatario e pongo la domanda Chi nell'organizzazione dovrebbe essere responsabile dei risultati responsabili dall'AI? Le prime tre risposte che ricevo sono piuttosto preoccupanti.
Le tre risposte più comuni che ricevo sono: "nessuno", "non usiamo l'AI" e "tutti". Nessuna di queste risposte è giusta e sono tutte preoccupanti.
La prima e più comune risposta, ovvero che nessuno è responsabile dei risultati dei modelli AI, è palesemente preoccupante. Qui non ci sono scuse. Non dovrebbe, e non può, essere accettabile accontentarsi di un'assenza totale di responsabilità nell'ambito dell'AI.
La seconda risposta, non usiamo l'AI, è ridicola considerando che l'AI è già incorporata in molte delle licenze di applicazioni software aziendali che già utilizzano. Inoltre, dimostra che un'organizzazione non tiene traccia dell'AI nel proprio inventario o, peggio ancora, non comunica gli usi appropriati e non appropriati dell'AI ai propri dipendenti. Questo è un problema fondamentale.
E l'ultima, secondo cui la responsabilità è di tutti, è quanto meno una risposta lodevole. Chiunque abbia a che fare con un modello AI durante il suo ciclo di vita ne è effettivamente responsabile. Tuttavia, se tutti sono responsabili della governance, chi è davvero responsabile della governance? La responsabilità dell'AI deve essere qualcosa di più della semplice idea che se ognuno gestisce la propria governance, andrà tutto bene.
Chiaramente, c'è un divario tra il modo in cui un'organizzazione pensa di gestire la propria responsabilità per l'AI e la realtà. Vorrei spiegare cosa occorre affinché un'organizzazione sia realmente responsabile.
Coloro che sono responsabili dell'etica e della governance dell'AI devono gestire molte parti mobili, la più importante delle quali è l'allineamento dei valori all'interno delle loro organizzazioni. Ciò significa far riconoscere a tutti i loro colleghi quanto sia fondamentale questo lavoro per l'individuo e l'organizzazione. Questo non è sempre possibile senza comunicazioni e supporto costanti da parte del CEO o del consiglio di amministrazione. Questi leader della governance dell'AI devono contribuire a garantire che colleghi come il CISO siano invitati a riunioni sugli investimenti nell'AI.
Inizialmente, questi leader nella governance dell'AI potrebbero essere visti come un ostacolo che rallenta il progresso. I leader della governance dell'AI, se adeguatamente finanziati e responsabilizzati, hanno l'opportunità di creare piattaforme di governance dell'AI complete, in grado di accelerare l'implementazione sicura dei modelli in una frazione del tempo. Avendo a disposizione set di dati e processi controllati, i costruttori di soluzioni di AI possono conoscere in anticipo i casi d'uso, i dati e i metodi che sono già stati preapprovati dall'organizzazione.
Oltre all'allineamento del valore, la persona o il team che si occupa dell'AI responsabile deve monitorare l'inventario dei modelli AI dell'organizzazione. Non puoi governare ciò che non vedi. Quindi, tutto ciò che l'organizzazione ha acquistato o creato che possa contenere componenti di AI o machine learning (ML) deve essere monitorato, insieme ai metadati associati a ciascuno di questi modelli.
Di solito, questi metadati sono memorizzati in una scheda informativa o, come viene talvolta chiamata, una scheda del modello AI. Essa deve indicare qual è lo scopo del modello, chi ne è responsabile, da dove provengono i dati, per cosa vengono controllati, con quale frequenza vengono controllati, quali sono i risultati di tali controlli, e così via.
Quindi, devono sapere come controllare questi modelli AI e soluzioni per monitorare se la tecnologia si sta comportando nel modo in cui si intendeva che si comportasse. Si tratta di una considerazione critica per ritenere i fornitori contrattualmente responsabili dei loro modelli.
E poi devono tenere traccia delle normative. Il landscape normativo è in continua evoluzione, soprattutto per quanto riguarda l'AI. Molti paesi, stati e città hanno leggi specifiche sull'uso e i rischi dell'AI e l'anno scorso l'UE ha introdotto l'EU AI Act. Molte aziende e agenzie governative sono già state citate in giudizio con successo per i loro modelli errati.
È risaputo che si possono avere dei modelli "legittimi ma pessimi", il che significa che si deve lavorare all'etica che circonda l'AI. E ogni volta che si affronta il tema dell'etica, bisogna essere dei bravi insegnanti.
Devi essere in grado di insegnare alle persone che costruiscono o acquistano modelli per conto della tua organizzazione a farlo in modo coerente con l'etica aziendale.
Prendiamo, ad esempio, il valore umano di "equità". Tutti ci aspettiamo che i modelli AI siano equi, ma quale definizione di equità viene rappresentata nel modello AI? Come società, non possiamo stabilire un'unica definizione di equità che valga per tutti, in tutto il mondo.
Ciò significa, in pratica, che chi si occupa dei programmi di etica e governance dell'AI all'interno delle organizzazioni si trova a occuparsi anche dei programmi di alfabetizzazione AI.
Questi programmi di alfabetizzazione AI non si limitano a insegnare ai dipendenti come utilizzare l'AI sul lavoro per essere più produttivi. La prima fase dell'alfabetizzazione AI è imparare quale sia il rapporto che l'organizzazione vuole avere con l'AI. I programmi di alfabetizzazione introducono i principi fondamentali che le organizzazioni si aspettano di vedere riflessi in qualsiasi soluzione AI che venga creata o acquistata. Essi insegnano come rendere operativo ciascuno di questi principi o come dar loro vita su diversi livelli di rischio.
Questi programmi di alfabetizzazione AI sono inevitabilmente multidisciplinari, perché avere fiducia nell'AI non è tanto un problema tecnico, quanto piuttosto un problema socio-tecnico. Creare modelli che riflettano i valori umani può essere una delle cose più difficili che noi, come esseri umani, ci siamo prefissati di fare. Ciò richiede persone con esperienza in ogni campo.
Essere responsabili dell'AI è un compito importante, ed è per questo che queste persone hanno bisogno di un grande potere e di un mandato finanziato per svolgere questo lavoro. Non può essere solo un'attività secondaria. Ci vuole molto impegno per affrontare correttamente queste sfide. Tutte le organizzazioni dovrebbero impegnarsi a delegare la responsabilità sull'AI in modo responsabile.
In parole povere, si ottengono più comportamenti umani di quelli misurati. Quali comportamenti dei dipendenti stai incentivando e misurando per quanto riguarda la cura responsabile dei modelli? Considera i modi in cui puoi incentivare e misurare i comportamenti giusti, ma anche come incorporare meglio l'insegnamento e l'apprendimento nei tuoi processi di governance dell'AI . Molti non sono incentivati a essere attenti quando compilano i moduli di inventario dei modelli AI o, peggio, potrebbero essere completamente inconsapevoli dei rischi associati ai modelli che supportano.
In breve, tieni a mente questi 4 risultati principali:
Accelera la trasformazione dell'approvvigionamento AI con agenti watsonx predefiniti ed enterprise-ready
Massimizza il valore dal processo Source-to-Pay collaborando con fornitori e partner del settore.
Trasforma le tue operazioni di approvvigionamento con i servizi di consulenza e outsourcing per l'approvvigionamento di IBM.