Os mesmos processos que muitas vezes levam a resultados impressionantes também são o que causam alucinações nos modelos generativos: quando produzem informações incorretas ou enganosas. Alucinações ou confabulações ocorrem quando os modelos percebem padrões em seus conjuntos de dados de treinamento que não existem no mundo real.
Por exemplo, o prompt para o ChatGPT-4o mini com a pergunta "Em qual episódio de Seinfeld Kramer vai para Bangladesh?" retornou esta resposta:
Kramer viaja para Bangladesh no episódio intitulado “The Little Jerry”, que é o 145.º episódio de Seinfeld. É o 145º [sic] episódio do programa e foi ao ar originalmente durante a 8.ª temporada. Neste episódio, Kramer se envolve em um esquema para importar um brinquedo de Bangladesh.
Embora The Little Jerry seja o 145.º episódio de Seinfeld e foi ao ar na 8ª temporada, ele apresenta Kramer comprando e treinando um galo, o homônimo Little Jerry. Ao enviar o prompt ao chatbot novamente com a mesma pergunta, ele retornou uma segunda alucinação diferente:
Kramer vai para Bangladesh no episódio intitulado "As Maldivas", o 18.º episódio da 9ª temporada. Nesse episódio, ele tenta começar uma nova vida após sua viagem e o enredo gira em torno de sua ideia de tornar-se pescador bangladês".
Na realidade, o episódio 18 da 9.ª temporada de Seinfeld é The Frogger e nesse episódio Kramer vai somente à delegacia de polícia. Não há um episódio de Seinfeld chamado As Maldivas e em nenhum momento durante toda a exibição do programa Kramer vai para Bangladesh.
Assim como modelos autorregressivos como o GPT são conhecidos por alucinar com fatos inventados, outros tipos de modelos podem alucinar de suas próprias maneiras. Os modelos de difusão utilizados na geração de imagens às vezes representam objetos do mundo real de maneiras que não correspondem à realidade.