Home

topics

Allucinazioni dell'AI

Cosa sono le allucinazioni dell'AI?
Esplora la soluzione di IBM per le allucinazioni dell'AI Iscriviti per ricevere gli aggiornamenti sull'AI
Illustrazione con collage di pittogrammi di cloud, grafici a torta, pittogrammi grafici su quanto segue

IBM TechXchange Conference 2024 | Dal 21 al 24 ottobre a Las Vegas

Partecipa all'evento imperdibile per i tecnici che utilizzano i prodotti e le soluzioni IBM. Esplora il catalogo in continua crescita di oltre 1.200 sessioni e laboratori.

Esplora e registrati per TechXchange
Cosa sono le allucinazioni dell'AI?

L'allucinazione dell'AI è un fenomeno in cui un modello linguistico di grandi dimensioni (LLM), spesso un chatbot di AI generativa o uno strumento di computer vision, percepisce modelli o oggetti inesistenti o impercettibili agli osservatori umani, creando output privi di senso o del tutto imprecisi.

In genere, se un utente richiede uno strumento di AI generativa, desidera un output che risponda in modo appropriato al prompt (cioè una risposta corretta a una domanda). Tuttavia, a volte gli algoritmi di AI producono output che non si basano su dati di addestramento, vengono decodificati in modo errato dal trasformatore o non seguono alcuno schema identificabile. In altre parole, “allucinano” la risposta.

Il termine può sembrare paradossale, dato che le allucinazioni sono tipicamente associate al cervello umano o animale, non alle macchine. Ma da un punto di vista metaforico, l'allucinazione descrive accuratamente questi risultati, specialmente nel caso del riconoscimento di immagini e schemi (dove i risultati possono avere un aspetto davvero surreale).

Le allucinazioni dell'AI sono simili a come gli esseri umani a volte vedono figure nelle nuvole o nei volti sulla luna. Nel caso dell'AI, queste interpretazioni errate si verificano a causa di vari fattori, tra cui l'overfitting, la distorsione/imprecisione dei dati di addestramento e l'elevata complessità del modello.

Prevenire i problemi con le tecnologie generative open source può rivelarsi una sfida. Alcuni esempi notevoli di allucinazione dell'AI includono:

  • Il chatbot Bard di Google afferma erroneamente che il James Webb Space Telescope aveva acquisito le prime immagini al mondo di un pianeta al di fuori del nostro sistema solare.1

  • L'AI della chat di Microsoft, Sydney, ammette di essersi innamorata degli utenti e di aver spiato i dipendenti di Bing.2

  • Meta ha ritirato la demo del modello LLM di Galactica nel 2022, dopo aver fornito agli utenti informazioni imprecise, a volte basate su pregiudizi.3

Sebbene molti di questi problemi siano stati affrontati e risolti, è facile capire come, anche nelle migliori circostanze, l'uso di strumenti di AI possa avere conseguenze impreviste e indesiderate.

IBM nominata leader da IDC

Esplora come gli assistenti di AI generativa possono alleggerire il tuo workload e migliorare la produttività.

Contenuti correlati Registrati per l'ebook sull'AI generativa
Implicazioni dell'allucinazione dell'AI

Le allucinazioni basate su AI possono avere conseguenze significative per le applicazioni del mondo reale. Ad esempio, un modello AI per il settore sanitario potrebbe individuare erroneamente una lesione cutanea benigna come maligna, portando a interventi medici non necessari. I problemi di allucinazione dell'AI possono anche contribuire alla diffusione della disinformazione. Se, ad esempio, i bot di notizie allucinanti rispondono a domande su un'emergenza in via di sviluppo con informazioni che non sono state verificate, possono diffondere rapidamente falsità che minano gli sforzi di mitigazione. Una fonte significativa di allucinazione negli algoritmi di apprendimento automatico è il pregiudizio di input. Se un modello AI viene addestrato su un set di dati composto da dati distorti o non rappresentativi, può avere allucinazioni o caratteristiche che riflettono questi pregiudizi.

Anche i modelli AI possono essere vulnerabili agli attacchi avversari, in cui gli attori malintenzionati manipolano l'output di un modello di AI modificando sottilmente i dati di ingresso. Nelle attività di riconoscimento delle immagini, ad esempio, un attacco avversario potrebbe comportare l'aggiunta di una piccola quantità di rumore appositamente creato a un'immagine, causando una classificazione errata da parte dell'AI. Questo può diventare un problema di sicurezza significativo, soprattutto in aree sensibili come la cybersecurity e le tecnologie dei veicoli autonomi. I ricercatori di AI stanno sviluppando costantemente dei guardrail per proteggere gli strumenti di AI dagli attacchi avversari. Tecniche come l'addestramento avversario - in cui il modello viene addestrato su una miscela di esempi normali e avversari - stanno rafforzando i problemi di sicurezza. Ma nel frattempo, la vigilanza nelle fasi di addestramento e di verifica dei fatti è fondamentale.

Prevenire le allucinazioni dell'AI

Il modo migliore per mitigare l'impatto delle allucinazioni basate su AI è fermarle prima che si verifichino. Ecco alcune misure che puoi adottare per mantenere il funzionamento ottimale dei tuoi modelli AI:

Utilizza dati di addestramento di alta qualità

I modelli di AI generativa si basano sui dati di input per completare le attività, quindi la qualità e la pertinenza dei set di dati di addestramento determineranno il comportamento del modello e la qualità dei suoi output. Per evitare le allucinazioni, assicurati che i modelli AI siano addestrati su dati diversi, equilibrati e ben strutturati. Questo aiuterà il suo modello a ridurre al minimo la distorsione dell'output, a comprenderne meglio le attività e a produrre risultati più efficaci.

Definisci lo scopo del tuo modello AI

Spiegare come utilizzerai il modello AI, così come eventuali limitazioni all'uso del modello, aiuterà a ridurre le allucinazioni. Il tuo team o la tua organizzazione dovrebbero stabilire le responsabilità e i limiti del sistema di AI scelto; questo aiuterà il sistema a completare le attività in modo più efficace e a ridurre al minimo i risultati irrilevanti e "allucinanti".

Utilizza modelli di dati

I modelli di dati forniscono ai team un formato predefinito, aumentando la probabilità che un modello AI generi risultati in linea con le linee guida prescritte. Affidarsi a modelli di dati garantisce la coerenza dell'output e riduce la probabilità che il modello produca risultati errati.

Limita le risposte

I modelli AI spesso hanno allucinazioni perché mancano di vincoli che limitano i possibili risultati. Per prevenire questo problema e migliorare la coerenza e l'accuratezza complessive dei risultati, definisca i limiti per i modelli AI utilizzando strumenti di filtro e/o soglie probabilistiche chiare.

Testare e mettere costantemente a punto il sistema

Testare rigorosamente il modello AI prima dell'uso è fondamentale per prevenire le allucinazioni, così come valutare il modello su base continuativa. Questi processi migliorano le prestazioni complessive del sistema e consentono agli utenti di regolare e/o riqualificare il modello man mano che i dati invecchiano e si evolvono.

Affidarsi alla supervisione umana

Assicurarsi che un essere umano stia convalidando e rivedendo i risultati dell'AI è una misura di protezione finale per prevenire le allucinazioni. Il coinvolgimento della supervisione umana garantisce che, in caso di allucinazioni dell'AI, un essere umano sarà disponibile per filtrarla e correggerla. Un revisore umano può inoltre offrire competenze in materia che migliorano la sua capacità di valutare i contenuti dell'AI per verificarne l'accuratezza e la pertinenza con l'attività.

Ora disponibile: watsonx.governance

Accelera workflow responsabili, trasparenti e spiegabili per l'AI generativa costruita su piattaforme di terze parti.

Applicazioni per allucinazioni dell'AI

Sebbene l'allucinazione dell'AI sia certamente un risultato indesiderato nella maggior parte dei casi, presenta anche una serie di casi d'uso interessanti che possono aiutare le organizzazioni a sfruttare il suo potenziale creativo in modi positivi. Ecco alcuni esempi:

Arte e design

L'allucinazione dell'AI offre un nuovo approccio alla creazione artistica, fornendo ad artisti, designer e altri creativi uno strumento per generare immagini visivamente sbalorditive e fantasiose. Con le funzionalità allucinatorie dell'AI, gli artisti possono produrre immagini surreali e oniriche che possono generare nuove forme e stili d'arte.

Visualizzazione e interpretazione dei dati

Le allucinazioni basate su AI possono semplificare la visualizzazione dei dati esponendo nuove connessioni e offrendo prospettive alternative su informazioni complesse. Questo può rivelarsi particolarmente utile in settori come la finanza, dove la visualizzazione di complesse tendenze di mercato e dati finanziari agevola un processo decisionale più articolato e un'analisi del rischio più approfondita.

Videogiochi e realtà virtuale (VR)

Le allucinazioni basate su AI migliorano anche le esperienze immersive nel gaming e nella realtà virtuale. L'utilizzo di modelli AI per allucinare e generare ambienti virtuali può aiutare gli sviluppatori di giochi e i designer di realtà virtuale a immaginare nuovi mondi che portano l'esperienza dell'utente a un livello superiore. Le allucinazioni possono anche aggiungere un elemento di sorpresa, imprevedibilità e novità alle esperienze di gioco.

Soluzioni correlate
watsonx.governance

Accelera workflow di AI responsabili, trasparenti e spiegabili.

Esplora watsonx.governance

IBM watsonx Assistant

Offri un servizio clienti intelligente e coerente in tutti i canali e i touchpoint con i conversational AI chatbot.

Esplora IBM watsonx Assistant

watsonx.ai

Sperimenta con i foundation model e crea automaticamente modelli di machine learning nel nostro studio di prossima generazione per builder AI.

Esplora watsonx.ai Guarda la demo interattiva

IBM Watson Discovery

Trova risposte e insight fondamentali tra i tuoi dati aziendali utilizzando la tecnologia di ricerca aziendale basata su AI.

Scopri IBM Watson Discovery

AI chatbot

Scopri un AI chatbot in linguaggio naturale che comprende le conversazioni umane e migliora l'esperienza del cliente.

Esplora gli AI chatbot
Risorse sulle allucinazioni dell'AI Scopri gli LLM Granite di IBM

Granite è la serie di punta di foundation model LLM di IBM basati su un'architettura trasformativa decoder-only. I modelli linguistici Granite sono addestrati su dati aziendali affidabili che spaziano da Internet al mondo accademico, ai codici, ai settori legale e finanziario.

Tre modi per migliorare la tua AI conversazionale

Esplora tre tecniche per semplificare il dialogo della tua AI, aumentarne l'efficacia e soddisfare i tuoi utenti: chiedere meno, offrire scelte chiare e modificare i testi.

Apprendimento di IBM watsonx Assistant

Scopri le competenze necessarie per creare un'AI conversazionale affidabile con articoli di aiuto, tutorial, video e altro ancora.

Come creare un chatbot

Consulta i nostri documenti e le nostre risorse per creare un chatbot in modo rapido e semplice.

Magic Quadrant for Enterprise Conversational AI Platforms, 2023

IBM è stata nuovamente riconosciuta come leader nel Gartner Magic Quadrant™ 2023 per l'AI conversazionale aziendale.

Studio IBV: Il valore della tecnologia virtual agent

Scopri in che modo la pandemia di COVID-19 ha accelerato l'adozione della tecnologia virtual agent (VAT) nell'hyperdrive.

Fai il passo successivo

Accelera i workflow di AI responsabili, trasparenti e spiegabili attraverso il ciclo di vita dei modelli generativi e di apprendimento automatico. Assimila, gestisci e monitora le attività di AI della tua organizzazione per gestire meglio le crescenti normative in materia di AI e rilevare e ridurre i rischi.

Esplora watsonx.governance Prenota una demo live
Note a piè di pagina

1 Cosa impedisce ai chatbot AI di funzionare correttamente? (link esterno a ibm.com), The New York Times, 29 marzo 2023.

2 ChatGTP e le allucinazioni dell'AI generativa (link esterno a ibm.com), Medium, 15 marzo 2023.

3 Why Meta’s latest large language model survived only three days online (link esterno a ibm.com), MIT Technology Review, 18 novembre 2022.