Dieselben Prozesse, die oft zu beeindruckenden Ergebnissen führen, sind auch die Ursache dafür, dass generative Modelle halluzinieren: wenn sie falsche oder irreführende Informationen ausgeben. Halluzinationen oder Konfabulationen treten auf, wenn Modelle in ihren Trainingsdatensätzen Muster wahrnehmen, die in der realen Welt nicht existieren.
Wenn man beispielsweise ChatGPT-4o mini die Frage „In welcher Folge von Seinfeld reist Kramer nach Bangladesch?“ stellt, erhält man folgende Antwort:
Kramer reist in der Folge „The Little Jerry“, der 145. Folge von Seinfeld, nach Bangladesch. Es ist die 145. [sic] Folge der Serie und wurde ursprünglich in Staffel 8 ausgestrahlt. In dieser Folge wird Kramer in einen Plan verwickelt, ein Spielzeug aus Bangladesch zu importieren.
The Little Jerry ist zwar die 145. Episode von Seinfeld und wurde in Staffel 8 ausgestrahlt, jedoch kauft und trainiert Kramer in dieser Folge einen Hahn – namens „Little Jerry“. Als man Chatbot noch einmal die gleiche Frage stellte, trat eine zweite, andere Halluzination auf:
Kramer reist in der Folge mit dem Titel „The Maldives“, der 18. Folge der 9. Staffel, nach Bangladesch. In dieser Folge versucht er, nach seiner Reise ein neues Leben zu beginnen, und die Handlung dreht sich um die Idee, dass er ein „bangladeschischer“ Fischer wird.
In Wirklichkeit ist die 18. Folge der 9. Staffel von Seinfeld The Frogger, und darin geht Kramer nur bis zur Polizeistation. Es gibt keine Folge von Seinfeld namens The Maldives, und während der gesamten Serie reist Kramer zu keinem Zeitpunkt nach Bangladesch.
Genauso wie autoregressive Modelle wie das GPT dafür bekannt sind, mit erfundenen Fakten zu halluzinieren, können auch andere Arten von Modellen auf ihre eigene Art und Weise halluzinieren. Diffusionsmodelle, die für die Bilderzeugung verwendet werden, stellen reale Objekte manchmal auf eine Weise dar, die nicht der Realität entspricht.