Strumenti per un'AI affidabile

Sviluppatori software al lavoro

È stato sviluppato un nuovo strumento per smascherare gli studenti che copiano con ChatGPT. È efficace al 99,9%. Ma OpenAI non l'ha rilasciato perché è impantanato in problemi etici.

È solo un esempio di una delle principali sfide che l'AI deve affrontare. Come possiamo monitorare la tecnologia per assicurarci che venga usata in modo etico?

Negli ultimi anni, i più grandi nomi dell'AI hanno insistito affinché la loro tecnologia fosse utilizzata in modo responsabile. E utilizzare l'AI in modo etico non è solo la cosa giusta da fare per le aziende, ma è anche qualcosa che i consumatori vogliono. Infatti, secondo l'IBM® Global AI Adoption Index, l'86% delle aziende ritiene che i clienti preferiscano aziende che seguono linee guida etiche e siano chiare su come utilizzano i loro dati e i modelli di AI.

"Siamo tutti ben oltre la speranza che le aziende siano consapevoli [dell'uso etico dell'AI]", afferma Phaedra Boinodiris, leader globale per l'AI affidabile di IBM. "La domanda più grande è: perché è importante che le aziende e altre organizzazioni siano ritenute responsabili per risultati sicuri e responsabili derivanti dall'AI che implementano?" 

Gli strumenti di etica dell'AI possono aiutare? Gli strumenti stessi sono distorti? Ecco una rapida occhiata alle ultime ricerche.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Rilevatori di deepfake

I tentativi di frode tramite deepfake sono aumentati del 3000% dal 2022 al 2023 e stanno diventando sempre più elaborati. A febbraio, un operatore finanziario di una multinazionale di Hong Kong è stato ingannato e ha pagato 25 milioni di dollari a criminali che hanno creato una conferenza video con diversi personaggi deepfake, incluso il CFO della società.

A maggio, OpenAI ha annunciato di aver rilasciato il proprio strumento di rilevamento dei deepfake per i ricercatori sulla disinformazione. Lo strumento è stato in grado di individuare il 98,8% delle immagini create da DALL-E 3. OpenAI si è inoltre unita a Google, Adobe e altri nel comitato direttivo della Coalition for Content Provenance and Authenticity (C2PA), una coalizione di settore che sta sviluppando uno standard per la certificazione della cronologia e della provenienza dei contenuti multimediali. 

In attesa che venga definito questo standard, le aziende stanno sviluppando strumenti che sperano possano colmare la lacuna. Ad agosto, McAfee ha annunciato il suo McAfee Deepfake Detector. Lo strumento utilizza modelli di reti neurali profonde per individuare gli audio AI falsi nei video riprodotti nel tuo browser. Nel 2022, Intel ha introdotto FakeCatcher, che analizza il flusso sanguigno nei pixel video, separando gli umani dai deepfake con un tasso di accuratezza del 96%. E non sono i soli. Tra le startup di rilievo del settore figurano Reality Defender di New York, la startup israeliana Clarity e l'azienda Sentinel con sede in Estonia, tutte dotate di strumenti di scansione che utilizzano l'AI per individuare gli schemi in vari tipi di deepfake.

Con la tecnologia di rilevamento dei deepfake che si evolve a un ritmo così rapido, è importante tenere a mente le potenziali distorsioni algoritmiche. L'informatico ed esperto di deepfake Siwei Lyu e il suo team della University of Buffalo hanno sviluppato quelli che ritengono essere i primi algoritmi di rilevamento dei deepfake progettati per minimizzare la distorsione. I ricercatori dell'UB hanno realizzato un collage fotografico delle centinaia di volti identificati come falsi nei loro algoritmi di rilevamento; i risultati hanno mostrato un tono della pelle complessivamente più scura.

"I deepfake potrebbero essere utilizzati per attaccare gruppi minoritari sottorappresentati, quindi è importante assicurarsi che le tecnologie di rilevamento non li svantaggino", afferma Lyu. E per quanto riguarda il futuro del rilevamento dei deepfake? "Le tecnologie di AI generativa sottostanti i deepfake continueranno senza dubbio a crescere, quindi vedremo deepfake con un numero crescente e sempre più qualità e forme. Mi aspetto che le future tecnologie [di rilevamento] saranno dotate di maggiori protezioni per ridurre le possibilità di usi impropri."

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell'AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Tecnologie anti riconoscimento facciale (AFR)

I sistemi di riconoscimento facciale stanno diventando sempre più comuni come un modo conveniente per autenticare l'identità di un utente, ma questi sistemi sono da tempo pieni di problemi etici che vanno dai pregiudizi razziali alla privacy dei dati. A complicare la questione, "alcune distorsioni sono [anche] intersettoriali, e quindi si sommano a più livelli di pregiudizio", osserva Helen Edwards, cofondatrice del think tank sull'etica dell'AI Artificiality.

A maggio, i dati della startup australiana di riconoscimento facciale Outabox sono stati violati, con la diffusione dei dati biometrici di oltre un milione di utenti. All'inizio di quest'anno "GoldPickAxe", un trojan rivolto ai dispositivi Android e iOS, è stato sorpreso mentre raccoglieva dati facciali per entrare nei conti bancari.

Un approccio promettente per proteggere i dati biometrici del viso consiste nel criptarli in modo impercettibile per l'occhio umano, ma confondendo i sistemi di riconoscimento. Uno dei primi strumenti a farlo fu Fawkes, un progetto sviluppato all'Università di Chicago. Prende il nome dalla maschera di Guy Fawkes, e il programma è progettato per occultare le foto alterando leggermente i pixel; è gratuito da scaricare dal sito web del progetto.

Più recentemente, i ricercatori dell'USSLAB dell'Università di Zhejiang hanno introdotto CamPro, che mira a raggiungere l'anti riconoscimento facciale a livello del sensore della fotocamera. CamPro produce immagini che riducono l'identificazione facciale allo 0,3% senza interferire con altre applicazioni come il riconoscimento delle attività.

Rilevatori di scrittura AI

Individuare la scrittura generata dall'AI continua a essere una sfida per aziende e istituzioni educative. In un test alla cieca presso l'Università di Reading, cinque diversi moduli di psicologia includevano esami scritti da ChatGPT mescolati a esami scritti da veri studenti. Lo studio di giugno ha rilevato che il 94% delle risposte agli esami di ChatGPT non è stato individuato dalle persone che correggevano gli esami. Gli esami generati dall'AI hanno anche una media di mezzo voto in più rispetto agli esami degli studenti.

Una serie di rilevatori di scrittura AI ha invaso il mercato per contrastare questo problema, cercando i tratti comuni dei testi generati dall'AI, come la ripetizione e la grammatica perfetta. Ma gli esperti avvertono del fatto che non sono ancora affidabili e spesso dimostrano pregiudizi.

L'anno scorso uno studio di Stanford ha scoperto che i rilevatori di AI segnalavano in media i testi scritti da persone non madrelingua inglese nel 61,3% dei casi, ma commettevano molti meno errori quando valutavano i testi scritti da persone madrelingua inglese.

Gli esseri umani che spacciano scritti generati dall'AI come propri non sono solo disonesti; a volte è anche plagio, che può comportare gravi conseguenze legali. Per questo motivo, alcune aziende stanno utilizzando rilevatori di scrittura basati su AI per testare i testi dei loro autori. Questo ha portato le aziende ad accusare falsamente gli autori di spacciare i testi generati dall'AI come propri, danneggiando la reputazione e la carriera degli scrittori.

Rilevatori di polarizzazione LLM

I set di dati spesso includono i pregiudizi inconsci delle persone che li creano. È per questo che la distorsione algoritmica è un problema così persistente negli LLM che si addestrano su questi dati.

In un esempio, i ricercatori di Cornell hanno utilizzato ChatGPT e Alpaca per generare lettere di raccomandazione sia per uomini che per donne; le lettere mostravano pregiudizi significativi a favore degli uomini. Espressioni come "Kelly è una persona affettuosa" e "Joseph è un modello da seguire" hanno dimostrato come questi pregiudizi possano avere un impatto sulle donne sul posto di lavoro.

I ricercatori stanno lavorando per trovare modi per segnalare e mitigare i pregiudizi. Un team dell'Università dell'Illinois Urbana-Champaign ha sviluppato QuaCer-B, che genera misure di distorsione LLM dimostrabili per prompt campionati da determinate distribuzioni e può essere utilizzato sia per le API che per gli LLM open source.

"Il settore dell'AI attualmente si basa sulla valutazione della sicurezza e dell'affidabilità dei modelli testandoli su un piccolo insieme di input di benchmark", afferma il professore di UIUC Gagandeep Singh, uno dei principali ricercatori dietro QuaCer-B. "Tuttavia, la generazione sicura sugli input di benchmark non garantisce che i contenuti generati dagli LLM saranno etici nel gestire diversi scenari invisibili nel mondo reale. QuaCer-B consente agli sviluppatori di LLM di prendere decisioni informate sull'idoneità dei loro modelli per la distribuzione reale e di identificare anche le cause dei problemi per migliorare il modello."

Man mano che l'AI continua a evolversi, nuovi problemi etici continueranno a evolversi parallelamente. E sebbene gli strumenti per segnalare, monitorare e prevenire l'uso non etico della tecnologia siano un inizio, gli esperti di etica dell'AI non li considerano una soluzione unica e definitiva.

"La parte difficile è non acquistare lo strumento giusto", aggiunge Boinodiris. "Il perfezionamento dell'AI in modo responsabile è una sfida sociotecnica che richiede un approccio olistico. E le persone sono la parte più difficile dell'equazione."

"Oltre a una regolamentazione e a un'applicazione ponderate, la chiave per un'AI etica è l'audit post-commercializzazione, il monitoraggio continuo delle prestazioni e la riduzione al minimo dei rischi", spiega Gemma Galdón-Clavell, consulente delle Nazioni Unite e dell'UE per l'etica applicata e l'AI responsabile e fondatrice di Eticas.ai. "Pensiamo al settore automobilistico: le spie luminose e i sensori di prossimità possono aiutare i conducenti a evitare incidenti, ma abbiamo ancora bisogno di cinture di sicurezza, airbag e controlli regolari per garantire che la strada aperta sia il più sicura possibile."

 
Soluzioni correlate
IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Soluzioni di governance dell'AI

Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.

Scopri le soluzioni di governance dell'AI
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Scopri i servizi di governance dell'AI
Prossimi passi

Indirizza, gestisci e monitora l'AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live