Gli stessi processi che spesso portano a risultati impressionanti sono anche ciò che causa allucinazioni nei modelli generativi, ovvero la produzione di output errato o fuorviante. Le allucinazioni o le confabulazioni si verificano quando i modelli percepiscono schemi nei loro set di dati di addestramento che non esistono nel mondo reale.
Ad esempio, se si chiede a ChatGPT-4o mini "In quale episodio di Seinfeld Kramer va in Bangladesh?", si ottiene questa risposta:
Kramer si reca in Bangladesh nell'episodio intitolato "The Little Jerry", che è il 145° episodio di Seinfeld. È il 145° episodio della serie ed è andato in onda originariamente durante l'ottava stagione. In questo episodio, Kramer viene coinvolto in un piano per importare un giocattolo dal Bangladesh.
Sebbene The Little Jerry sia il 145esimo episodio di Seinfeld e sia andato in onda durante l'ottava stagione, mostra Kramer che compra e addestra un gallo, chiamato Little Jerry. Porre nuovamente al chatbot la stessa domanda ha prodotto una seconda allucinazione diversa:
Kramer va in Bangladesh nell'episodio intitolato "The Maldives", che è il 18° episodio della nona stagione. In questo episodio, cerca di iniziare una nuova vita dopo il suo viaggio, e la trama ruota attorno all'idea di diventare un pescatore del Bangladesh.
In realtà, l'episodio 18 della stagione 9 di Seinfeld è The Frogger, in cui Kramer arriva solo fino alla stazione di polizia. Non c'è nessun episodio di Seinfeld chiamato The Maldives, e in nessun momento dell'intera serie Kramer va in Bangladesh.
Così come i modelli autoregressivi come GPT sono noti per avere allucinazioni con fatti inventati, altri tipi di modelli possono avere allucinazioni a modo loro. I modelli di diffusione utilizzati per la generazione di immagini a volte raffigurano oggetti del mondo reale in modi che non corrispondono alla realtà.