L’etica e la governance dell'AI dovrebbero essere al centro delle discussioni a partire dal livello del consiglio di amministrazione fino ai livelli inferiori di un'organizzazione, perché esiste un’importante distinzione tra ciò che si può fare e ciò che si dovrebbe fare. Questo vale sia per il modo in cui l'AI viene utilizzata internamente, valutando il potenziale impatto sui lavoratori, che esternamente, valutando l'impatto sui clienti e sul mondo in generale.
"Una delle cose più importanti che un'azienda può fare prima di iniziare a implementare l'AI è avere dei guardrail per sapere dove e quando l'AI dovrebbe essere utilizzata, compreso il suo impatto sui ruoli lavorativi, dal livello più basso a quello più alto." —Melissa Long Dolson
L'integrità dei foundational model, la protezione della privacy dei dipendenti e dei clienti, il mantenimento della proprietà intellettuale, la gestione del rischio e la conformità alle normative devono essere parte integrante di tali linee guida. Queste dovrebbero anche includere una visione chiara di quali protezioni e livelli di responsabilità saranno messi in atto. Ad esempio, IBM sostiene tre principi per quanto riguarda l'AI responsabile:
- Lo scopo dell'intelligenza artificiale è potenziare l'intelligenza umana
- I dati e gli insight appartengono ai loro creatori
- Le nuove tecnologie, compresi i sistemi di AI, devono essere trasparenti e spiegabili