L'AI generativa, una tecnologia relativamente nuova, è riuscita a collocare l'intelligenza artificiale al centro di un momento storico critico che potrebbe ridefinire la natura stessa del business. In questo clima di rapida espansione degli investimenti nell'AI, soprattutto alla luce delle possibilità offerte dalla gen AI e dai foundation model, un'etica dell'AI è assolutamente necessaria per garantire la longevità, la conformità e la validità di tali investimenti. Riteniamo che alla base della fiducia vi sia una cultura etica all'interno dell'azienda, ma per un'AI scalabile ciò che serve è una governance che operi end-to-end. Le decisioni che le aziende prendono oggi su dove e come far scendere in campo l’AI avranno ripercussioni negli anni a venire.
La guida del CEO all'AI generativa
L’etica e la governance dell'AI dovrebbero essere al centro delle discussioni a partire dal livello del consiglio di amministrazione fino ai livelli inferiori di un'organizzazione, perché esiste un’importante distinzione tra ciò che si può fare e ciò che si dovrebbe fare. Questo vale sia per il modo in cui l'AI viene utilizzata internamente, valutando il potenziale impatto sui lavoratori, che esternamente, valutando l'impatto sui clienti e sul mondo in generale.
"Una delle cose più importanti che un'azienda può fare prima di iniziare a implementare l'AI è avere dei guardrail per sapere dove e quando l'AI dovrebbe essere utilizzata, compreso il suo impatto sui ruoli lavorativi, dal livello più basso a quello più alto." —Melissa Long Dolson
L'integrità dei foundational model, la protezione della privacy dei dipendenti e dei clienti, il mantenimento della proprietà intellettuale, la gestione del rischio e la conformità alle normative devono essere parte integrante di tali linee guida. Queste dovrebbero anche includere una visione chiara di quali protezioni e livelli di responsabilità saranno messi in atto. Ad esempio, IBM sostiene tre principi per quanto riguarda l'AI responsabile:
È inoltre necessario considerare nuovi ruoli per regolare in modo efficace l'utilizzo dell’AI e dell’automazione IT. Ad esempio, potresti dover assumere un responsabile dell’etica dell’AI. O forse avrai bisogno anche di un esperto oppure di un consiglio per l'etica dell'AI. O magari saranno necessari tutti e tre. Ci sono anche nuovi ruoli che stanno rapidamente emergendo al di fuori di queste mansioni di supervisione, tra cui ingegneri di AI prompt e deep learning, sviluppatori di AI chatbot, progettisti e revisori di AI, solo per citarne alcuni. Tutti questi ruoli avranno bisogno di linee guida chiare su come operare in modo responsabile.
Queste complesse conversazioni non hanno risposte semplici, ma è necessario che abbiano luogo quanto prima. L’AI sta provocando cambiamenti epocali: il World Economic Forum prevede che entro il 2025 queste nuove tecnologie metteranno a rischio 85 milioni di posti di lavoro a livello globale. Tuttavia, il Forum prevede anche la nascita di 97 milioni di nuovi ruoli.1 Questa forza lavoro emergente è quella in cui gli esseri umani, potenziati dall'AI, dovranno essere guidati da regole basate su un rigoroso senso dell'etica.
Per un approfondimento su questo argomento, ti invitiamo a consultare Responsible AI & Ethics, parte della guida all'AI generativa di IBM.
1 Recession and Automation Changes Our Future of Work, But There are Jobs Coming (link esterno a ibm.com), Report Says, World Economic Forum, 2020.