Balancing AI: Do good and avoid harm

Riunione informale del team in ufficio con finestre

Da bambino, mio padre mi diceva sempre: "Fai bene". Da bambino pensavo che fosse un errore di grammatica e lo correggevo, insistendo che dovesse essere "fai del bene". Persino i miei figli mi prendono in giro quando sentono i suoi consigli "fai bene", e ammetto di avergli dovuto concedere questo piccolo errore sul fronte della grammatica.

Nel caso dell'intelligenza artificiale (AI) responsabile, le organizzazioni dovrebbero dare priorità alla capacità di evitare danni come obiettivo centrale. Alcune organizzazioni potrebbero anche puntare a usare AI per "fare del bene". Tuttavia, a volte l'intelligenza artificiale necessita di chiare linee guida prima di poter accettare il concetto di "bene".

Leggi il "Presidio AI Framework" per imparare come affrontare i rischi dell'AI generativa con guardrails lungo tutto il ciclo di vita ampliato dell'AI (link esterno al ibm.com)

Poiché l'AI generativa continua a diventare mainstream, le organizzazioni sono entusiaste del potenziale di trasformazione dei processi, riduzione dei costi e aumento del valore aziendale. I leader aziendali sono desiderosi di riprogettare le proprie strategie aziendali per servire meglio clienti, pazienti, dipendenti, partner o cittadini in modo più efficiente e migliorare l'esperienza complessiva. L'AI generativa sta aprendo porte e creando nuove opportunità e rischi per le organizzazioni a livello globale, con la leadership delle risorse umane (HR) che svolge un ruolo chiave nella gestione di queste sfide.

Adattarsi alle implicazioni di una maggiore adozione dell'AI potrebbe includere il rispetto di complessi requisiti normativi come il NIST, l'EU AI Act, NYC 144, la US EEOC e la White House AI Act (tutti i link sono esterni a ibm.com), che influenzano direttamente le politiche HR e organizzative, così come i contratti sociali, di qualificazione lavorativa e di contrattazione collettiva. Adottare un'AI responsabile richiede una strategia multi-stakeholder, come confermato dalle principali risorse internazionali, tra cui NIST, OECD, Responsible Artificial Intelligence Institute, Data and Trust Alliance e IEEE (tutti i link sono esterni a ibm.com).

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Non si tratta solo di un ruolo IT: le risorse umane svolgono un ruolo chiave

I leader HR ora consigliano le aziende sulle competenze richieste per il lavoro attuale così come sulle competenze future, considerando AI e altre tecnologie. Secondo il WEF, i datori di lavoro stimano che 44% delle competenze dei lavoratori saranno stravolte nei prossimi 5 anni. I professionisti delle risorse umane stanno esplorando sempre più il loro potenziale per migliorare la produttività rendendo più efficace il lavoro dei dipendenti e consentendo loro di concentrarsi su attività di livello superiore. Con l'espansione delle capacità dell'AI, ogni leader aziendale deve tenere conto di questioni e interrogativi etici per evitare che l'uso dell'AI vada a scapito dei lavoratori, dei partner o dei clienti.

Scopri i principi di fiducia e trasparenza raccomandati da IBM affinché le organizzazioni integrino responsabilmente l'AI nelle loro operazioni.

La formazione dei lavoratori e la gestione della conoscenza sono ora strettamente coordinate come strategia multi-stakeholder, e IT, legale, conformità e operatori aziendali vengono visti come un processo continuo invece che come una serie di caselle da spuntare ogni anno. Per questo motivo, i leader HR devono essere coinvolti in modo intrinseco nello sviluppo di programmi per creare politiche e far crescere l'abilità AI dei dipendenti, identificando dove applicare le funzionalità, stabilendo una strategia di AI responsabile e utilizzando strumenti come AI e automazione per garantire attenzione e rispetto verso i dipendenti attraverso un'adozione affidabile e trasparente dell'AI.

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell'AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Sfide e soluzioni nell'adozione dell'etica dell'AI all'interno delle organizzazioni

Sebbene l’adozione e i casi d’uso dell’AI continuino ad espandersi, le organizzazioni potrebbero non essere del tutto preparate alle numerose considerazioni e conseguenze dell’adozione delle funzionalità AI nei loro processi e sistemi. Mentre il 79% dei dirigenti intervistati sottolinea l’importanza dell’etica dell’AI nel loro approccio all’AI a livello aziendale, meno del 25% ha attualizzato i principi comuni dell’etica dell’AI, secondo la ricerca dell’IBM Institute for Business Value.

Questa discrepanza esiste perché le politiche da sole non possono eliminare la diffusione e l’uso crescente degli strumenti digitali. L’uso crescente da parte dei lavoratori di dispositivi smart e app come ChatGPT o altri modelli pubblici black box, senza la dovuta approvazione, è diventato un problema persistente e non include la corretta gestione del cambiamento per informare i lavoratori sui rischi associati.

Ad esempio, i lavoratori potrebbero utilizzare questi strumenti per scrivere e-mail ai clienti utilizzando dati sensibili dei clienti, oppure i manager potrebbero usarli per scrivere le performance review che divulgano dati personali dei dipendenti.

Per contribuire a ridurre questi rischi, può essere utile incorporare punti focali o sostenitori della pratica dell’AI responsabile all’interno di ogni dipartimento, unità di business e livello funzionale. Questo esempio può essere un’opportunità per le risorse umane di promuovere e sostenere gli sforzi volti a contrastare potenziali sfide etiche e rischi operativi.

In definitiva, creare una strategia di AI responsabile con valori e principi comuni che siano allineati con i valori più ampi dell’azienda e con la strategia commerciale e che siano comunicati a tutti i dipendenti è imperativo. Questa strategia deve sostenere i dipendenti e identificare le opportunità per le organizzazioni di abbracciare l’AI e l’innovazione che spingono in avanti gli obiettivi aziendali. Inoltre, deve aiutare i dipendenti con la formazione per aiutare a proteggersi dagli effetti dannosi dell’AI, affrontare la disinformazione e i pregiudizi e promuovere l’AI responsabile, sia internamente che all’interno della società.

Le 3 principali considerazioni per l'adozione di un'AI responsabile

Le prime 3 considerazioni che i leader aziendali e HR dovrebbero tenere a mente nello sviluppo di una strategia di AI responsabile sono:

Metti le persone al centro della tua strategia

In altre parole, quando definisci la tua Strategia di Tecnologia avanzata, dai priorità alle persone. Ciò significa identificare il modo in cui l'AI funziona con i suoi dipendenti, comunicare in modo specifico a questi ultimi come l'AI può aiutarli a eccellere nei loro ruoli e ridefinire le modalità di lavoro. Senza formazione, i dipendenti potrebbero essere eccessivamente preoccupati che l'AI venga utilizzata per sostituirli o per eliminare la forza lavoro. Comunicare direttamente con i dipendenti con onestà su come vengono costruiti questi modelli. I responsabili HR devono affrontare i potenziali cambiamenti lavorativi, così come le realtà delle nuove categorie e lavori creati dall'AI e da altre tecnologie.

Abilita una governance che tenga conto sia delle tecnologie adottate sia dell'impresa

L'AI non è un monolito. Le organizzazioni possono distribuire l'AI responsabile in tanti modi, quindi devono definire chiaramente cosa significa per loro l'AI responsabile, come intendono usarla e come eviteranno di utilizzarla. Principi come trasparenza, fiducia, equità, equità, robustezza e l'uso di team diversificati, in linea con le linee guida OCSE o RAII, dovrebbero essere considerati e progettati all'interno di ogni caso d'uso dell'AI, che coinvolga o meno l'AI generativa. Inoltre, per ogni modello dovrebbero essere condotte recensioni di routine per la deriva del modello e le misure di privacy, nonché metriche specifiche di diversità, equità e inclusione per la mitigazione dei pregiudizi.

Identifica e allinea le competenze e gli strumenti giusti per il lavoro

La realtà è che alcuni dipendenti stanno già sperimentando strumenti di AI generativa per aiutarli a svolgere compiti come rispondere a domande, redigere e-mail e svolgere altre attività di routine. Pertanto, le organizzazioni dovrebbero agire immediatamente per comunicare i propri piani di utilizzo di questi strumenti, stabilire aspettative per i dipendenti che li utilizzano e contribuire a garantire che l'uso di tali strumenti sia in linea con i valori e l'etica dell'organizzazione. Inoltre, le organizzazioni dovrebbero offrire opportunità di sviluppo delle competenze per aiutare i dipendenti ad ampliare le proprie conoscenze AI e a comprendere i potenziali percorsi di carriera.

Scarica il documento "Sbloccare il valore dall'AI generativa" per ulteriori indicazioni su come la tua organizzazione può adottare l'AI in modo responsabile

Praticare e integrare un'AI responsabile nella tua organizzazione è essenziale per un'adozione di successo. IBM ha fatto dell'AI responsabile il fulcro del suo approccio AI con clienti e partner. Nel 2018, IBM ha istituito l'AI Ethics Board come organismo centrale e interdisciplinare per sostenere una cultura di AI etica, responsabile e affidabile. È composto da dirigenti senior provenienti da vari dipartimenti come ricerca, unità di business, risorse umane, diversità e inclusione, affari legali, governo e regolatori, procurement e comunicazione. Il consiglio di amministrazione dirige e applica le iniziative e le decisioni relative all'AI. In IBM, prendiamo sul serio i vantaggi e le sfide dell'AI, incorporando responsabilità in tutto ciò che facciamo.

Permetterò a mio padre questo errore. L'AI può "fare bene" se gestita correttamente, con il coinvolgimento di molte persone, barriere, supervisione, governance e un framework dell'AI.

 

Autore

Jennifer Kirkwood

Executive

HR/Talent & Data, Partner, IBM Consulting

Soluzioni correlate
IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Soluzioni di governance dell'AI

Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.

Scopri le soluzioni di governance dell'AI
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Scopri i servizi di governance dell'AI
Prossimi passi

Indirizza, gestisci e monitora l'AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live