Los mismos procesos que a menudo conducen a Resultados impresionantes son también los que hacen que los modelos generativos tengan alucinaciones: cuando generan información incorrecta o engañosa. Las alucinaciones o confabulaciones se producen cuando los modelos perciben patrones en sus conjuntos de datos de entrenamiento que no existen en el mundo real.
Por ejemplo, indicar a ChatGPT-4o mini la pregunta "¿En qué episodio de Seinfeld va Kramer a Bangladesh?" arrojó esta respuesta:
Kramer viaja a Bangladés en el episodio titulado “The Little Jerry”, que es el episodio 145 de Seinfeld. Es el episodio 145 del programa y se emitió originalmente durante la temporada 8. En este episodio, Kramer participa en un plan para importar un juguete de Bangladés.
Si bien The Little Jerry es el episodio 145 de Seinfeld y se emitió durante la temporada 8, presenta a Kramer comprando y entrenando a un gallo, el epónimo Little Jerry. Incitar al chatbot nuevamente con la misma pregunta devolvió una segunda alucinación diferente:
Kramer va a Bangladesh en el episodio titulado "The Maldives", que es el episodio 18 de la temporada 9. En este episodio, intenta comenzar una nueva vida después de su viaje, y la historia gira en torno a la idea de que se convierta en un pescador de "Bangladesh".
En realidad, el episodio 18 de la temporada 9 de Seinfeld es The Frogger, y en él, Kramer solo llega a la estación de policía. No hay ningún episodio de Seinfeld llamado The Maldives, y en ningún momento durante todo el programa Kramer va a Bangladesh.
Así como se sabe que los modelos autorregresivos como GPT alucinan con hechos inventados, otros tipos de modelos pueden alucinar a su manera respectiva. Los modelos de difusión utilizados para la generación de imágenes a veces representan objetos del mundo real de maneras que no coinciden con la realidad.