Il boom dell'AI generativa ha prodotto di tutto, dai chatbot virali alle valutazioni multimiliardarie. Ma il fondamento etico su cui si fonda tutto questo resta tremendamente debole.
In un solo mese, OpenAI ha vinto e perso cause sui marchi in tribunale federale e Anthropic ha silenziosamente ritirato un blog generato dal proprio modello Claude dopo che gli utenti hanno criticato la scrittura definendola vaga e fuorviante. Man mano che i sistemi di AI si espandono attraverso settori e interfacce, le questioni su responsabilità, sicurezza e integrità non sono più teoriche. Sono operativi.
Quel divario tra funzionalità e credibilità è al centro di una crescente riflessione etica all'interno del mondo dell'AI. L'etica è solitamente trattata come una sovrapposizione, piuttosto che come uno strato strutturale. Tuttavia, all'interno di IBM, alcuni team stanno cercando di invertire questo schema incorporando direttamente vincoli etici nella formazione, nel marketing e nella distribuzione dei sistemi.
PJ Hagerty, veterano della comunità degli sviluppatori con radici negli strumenti open-source e nell'evangelizzazione dei prodotti, è uno degli individui coinvolti in questo lavoro. In qualità di AI Advocacy Lead presso IBM, il suo compito è aiutare gli sviluppatori a utilizzare l'AI in modo più efficace e responsabile. In pratica, però, questo significa qualcosa di più ampio: sfidare l'hype, chiarire i limiti e stabilire aspettative realistiche. "Non stiamo costruendo menti", mi ha detto. "Stiamo costruendo strumenti. Comportiamoci di conseguenza."
La maggior parte dell'attenzione nell'AI oggi è concentrata sugli output: cosa genera un modello, quanto è accurato o convincente, quanto si comporta rispetto ai benchmark. Ma per Hagerty, la vera tensione etica inizia prima, a livello di foundation model. Questa è l'infrastruttura grezza dell'AI moderna, il livello base del machine learning addestrato su vasti set di dati estratti dal web. È ciò che alimenta i modelli linguistici di grandi dimensioni (LLM) come ChatGPT e Claude.
"La fondazione è il luogo in cui tutto avviene", mi ha detto Hagerty. “Questa è la prima cosa che il sistema impara, e se è piena di spazzatura, quella spazzatura non scompare.”
Questi modelli base sono progettati per essere a uso generale. Questo è ciò che li rende potenti e pericolosi, ha affermato Hagerty. Poiché non sono progettati tenendo conto di compiti o vincoli specifici, tendono ad assorbire tutto, dalle strutture semantiche più preziose ai liquami tossici di internet. E una volta addestrati, i modelli sono difficili da controllare. Spesso perfino i loro creatori non sanno dire con certezza cosa sa un modello o come risponderà a un determinato prompt.
Hagerty ha paragonato questa situazione al versamento di una base di cemento imperfetta per un grattacielo. Se la miscela è sbagliata fin dall'inizio, potresti non vedere crepe subito. Ma col tempo la struttura diventa instabile. Nell'AI, l'equivalente è il comportamento fragile, il bias involontario o un uso catastrofico una volta che un sistema è stato distribuito. Senza un'attenta formazione iniziale, un modello porta con sé i rischi che ha assorbito durante l'addestramento in ogni applicazione a valle.
E non è il solo ad avere questa preoccupazione. I ricercatori del Center for Research on Foundation Models (CRFM) di Stanford hanno ripetutamente avvertito dei rischi emergenti dell'addestramento su larga scala, tra cui la propagazione dei bias, la conoscenza allucinazione, la contaminazione dei dati e la difficoltà di individuare i fallimenti precisi. Questi problemi possono essere mitigati ma non eliminati, il che rende le prime scelte di progettazione, come la data curation, il filtraggio e la governance, ancora più cruciale.
Secondo Hagerty, uno dei maggiori ostacoli etici al progresso significativo è la totale vaghezza di ciò che le aziende intendono quando parlano di "AI". Se chiedessimo a cinque team di prodotto cosa intendono con "basato sull'AI", probabilmente otterremmo cinque risposte diverse. Hagerty considera questa sfuggevolezza di definizione come uno dei principali fallimenti etici dell'epoca attuale.
"La maggior parte delle volte, quando si parla di AI, si intende l'automazione. O un decision tree. O un'istruzione if/else", ha detto.
La mancanza di chiarezza sui termini non è una questione accademica. Quando le aziende presentano un software deterministico come un ragionamento intelligente, gli utenti tendono ad averne fiducia. Quando le startup propongono strumenti di ricerca e filtro di base come modelli generativi, gli investitori investono in miraggi. Hagerty definisce questo fenomeno come "fuga dell'hype" e lo vede come una crescente fonte di confusione e di danni alla reputazione.
In settori regolamentati come la finanza o la sanità, le conseguenze possono essere ancora più gravi. Se un utente viene ingannato nel pensare che un sistema abbia una consapevolezza più profonda di quella reale, può delegare decisioni che avrebbero dovuto rimanere umane. Il confine tra strumento e agente diventa labile e, con esso, la responsabilità.
Questo problema porta anche a uno spreco di sforzi. Hagerty ha citato una recente ricerca sull'uso improprio degli LLM per la previsione delle serie temporali, un metodo statistico utilizzato per prevedere i valori futuri basandosi su dati storici, un compito in cui i metodi classici rimangono più accurati ed efficienti. Tuttavia, alcune aziende continuano a utilizzare gli LLM, inseguendo la novità o segnalando l'innovazione.
"State bruciando GPU per ottenere risposte scadenti", ha affermato. “E peggio ancora, lo chiamate progresso.”
La questione etica non riguarda solo l'inefficienza. Si tratta di una rappresentazione errata. I team costruiscono prodotti attorno a tecnologia che comprendono a malapena, aggiungono marketing che sopravvaluta le loro funzionalità e lo implementano a utenti che non hanno modo di valutare cosa stanno usando.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Gran parte dell'ansia pubblica riguardante l'AI si è concentrata sulla possibilità di una perdita massiccia di posti di lavoro. L'AI sostituirà avvocati, insegnanti, programmatori e scrittori? Hagerty vede questa domanda come prematura e mal formulata.
"La maggior parte di questi strumenti non sostituisce le persone", ha affermato. “Stanno sostituendo i compiti, e solo quelli veramente noiosi.”
Ha indicato assistenti di codifica come watsonx Code Assistant e GitHub Copilot, e strumenti come Cursor e Amazon CodeWhisperer. Questi sistemi non scrivono intere applicazioni da zero. Ciò che fanno è riempire blocchi di codice prevedibili, suggerire codice boilerplate e ridurre il sovraccarico dovuto alla scrittura di logica ripetitiva. Il vantaggio non è la creatività, ma la velocità.
Hagerty ritiene che questo sia un vantaggio netto. Gli sviluppatori junior possono iniziare più velocemente. Gli ingegneri senior possono concentrarsi sull'architettura invece che sulla sintassi. La barriera d'ingresso è più bassa e lo sforzo di manutenzione è ridotto. Ma mette in guardia dall'immaginarlo come un problema risolto.
"Questi modelli vengono addestrati sul web aperto", ha affermato. "E c'è molta spazzatura in quei set di dati, incluso il mio."
Questa spazzatura include codice debole, pratiche deprecate e hack specifici del contesto. Include anche il plagio, le violazioni della licenza e i bug fantasma che possono riemergere nell'output generato. Quindi, mentre un modello può far risparmiare tempo, rischia anche di reintrodurre proprio i problemi che era pensato per ridurre. Ciò che viene scalato non è la qualità, ma ciò a cui il modello è stato esposto.
È qui che Hagerty ritiene che la revisione umana rimanga essenziale. Lo strumento può aiutare, ma la responsabilità spetta comunque allo sviluppatore.
Uno dei fallimenti più noti della sicurezza dell'AI è avvenuto quasi dieci anni fa, quando il chatbot Tay è pubblicato su Twitter. Nel giro di poche ore, il sito è stato dirottato e ha iniziato a pubblicare contenuti offensivi e teorie del complotto. I suoi creatori lo hanno rimosso dalla rete e hanno pubblicato delle scuse. Ma l'episodio è diventato un simbolo duraturo di ciò che accade quando gli sviluppatori rilasciano dei sistemi senza barriere.
Oggi, la maggior parte delle aziende ha imparato ad avvolgere i propri modelli generativi in strati di moderazione. Filtri, classificatori, pulizia dei prompt e ottimizzazione dei rinforzi possono aiutare, ma non sono infallibili. Secondo Hagerty, queste misure tendono a concentrarsi su questioni superficiali, come il tono linguistico o le parolacce, piuttosto che su vulnerabilità più profonde, come prompt injection o riutilizzo malevolo. Al contrario, vede la sicurezza come una questione di progettazione più ampia. "Questo modello verrà utilizzato in modo improprio? Verrà estrapolato dal contesto? Gli output verranno ritenuti affidabili quando non dovrebbero esserlo?" ha detto. "Se non hai riflettuto su queste domande, il tuo lavoro non è finito. Non sei pronto per la produzione."
Hagerty ha citato l'esempio degli strumenti che manipolano o generano media, come i generatori di immagini, gli editor video e i cloni vocali. Questi sistemi non solo producono contenuti, ma alterano anche la percezione. Ha detto che quando gli output sono abbastanza realistici, iniziano a influenzare la memoria, il giudizio e l'attribuzione.
In questi casi, la sicurezza non riguarda la correttezza tecnica, ma la consapevolezza contestuale. Cosa succede a questo output una volta che esce dalla tua interfaccia? Chi lo vede? Cosa presumono?
Queste domande raramente hanno una sola risposta. Ma ignorarli del tutto, ha detto Hagerty, è un errore.
Negli ambienti tecnologici in rapida evoluzione, la governance può sembrare un freno. Rallenta i rilasci. Aggiunge documenti. Introduce l'ambiguità. Ma per Hagerty, questo punto di vista non coglie il punto.
"Non distribuiresti codice non testato", ha affermato. "Perché distribuire un modello non verificato?"
Considera strumenti come watsonx.governance di IBM come un'infrastruttura necessaria, non come extra opzionali. Questi sistemi permettono ai team di monitorare i dati di addestramento, monitorare i cambiamenti del modello e segnalare deviazioni nel tempo. Aiutano le organizzazioni a conformarsi alle normative emergenti, ma soprattutto costruiscono la memoria istituzionale. Hanno permesso ai team di vedere cosa hanno fatto, come lo hanno fatto e perché.
Ciò è importante non solo per la conformità, ma anche per la qualità. Se un modello si comporta in modo diverso il mese successivo, è necessario sapere cosa è cambiato. Se si verificano allucinazioni durante la produzione, è necessario trovare un modo per risalire alla fonte del problema. La buona governance è l'equivalente dell'AI del controllo delle versioni.
E va oltre i modelli. Hagerty ha sottolineato un crescente interesse per il "machine unlearning", ovvero la capacità di rimuovere chirurgicamente dati o comportamenti problematici senza dover riaddestrare da zero. Questo approccio, sebbene ancora iniziale, riflette un più ampio cambiamento di mentalità. L'obiettivo non è costruire modelli più intelligenti, ma costruire modelli che possano adattarsi, correggersi ed essere responsabili.
Niente di tutto questo richiede la perfezione. Hagerty è pronto ad ammettere che i pregiudizi persisteranno, la sicurezza fallirà e gli strumenti saranno utilizzati in modo improprio. Ma la differenza tra un fallimento accettabile e un danno negligente sta nel processo.
"Non esagerare. Non fidarti troppo. Poni le domande giuste fin da subito", ha affermato.
Raccomanda di integrare le recensioni etiche nei cicli di pianificazione, non solo nelle liste di controllo di lancio, di utilizzare strumenti come AI Fairness 360 e Granite Guardian di IBM, nonché ARX, per individuare i problemi più evidenti, di eseguire test di red-team per trovare edge prima che lo facciano gli utenti. E, soprattutto, di sviluppare sistemi che facilitino la correzione della rotta.
Il lavoro, sostiene, non consiste nel fermare i danni. Si tratta di dare forma all'impatto.
"Non costruirai un sistema perfetto", ha affermato. "Ma puoi costruirne uno che fallisca più lentamente, che fallisca in modi che puoi comprendere."
L'etica, in questa visione, non è un vincolo ma un principio di progettazione. È un modo per creare software migliori, sistemi più prevedibili, aspettative più chiare e, in ultima analisi, più valore.
Alla domanda su cosa gli dia speranza, Hagerty non ha parlato di allineamento, AGI o framework politici. Ha parlato degli assistenti di codicifica.
"Funzionano", ha detto. “Riducono l'attrito. Non pretendono di fare più di quanto possano. Questo è il modello da seguire."
Vuole che l'AI sia noiosa. Utile. Stretta. Onesta su ciò che fa e su come funziona. Ciò non significa limitare l'ambizione: significa chiarirla. Costruire per l'affidabilità invece che per la sorpresa. Progettare sistemi che si comportino bene non solo nelle demo, ma anche nell'implementazione.
L'AI non sparirà. Gli strumenti continueranno a evolversi, ma anche le aspettative. E i team che avranno successo, secondo Hagerty, saranno quelli che uniranno la potenza tecnica alla disciplina etica. Perché funziona.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.
Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.