Mein IBM Anmelden Abonnieren

Was sind KI-Halluzinationen?

01. September 2023

Was sind KI-Halluzinationen?

Eine KI-Halluzination ist ein Phänomen, bei dem ein Large Language Model (LLM) (oft ein auf generativer KI basierender Chatbot oder ein Computer-Vision-Tool) Muster oder Objekte wahrnimmt, die für menschliche Beobachter entweder nicht existieren oder nicht wahrnehmbar sind, und so unsinniges oder völlig ungenaues Output erzeugt.

Im Allgemeinen möchte ein Benutzer, der eine Anfrage an ein generatives KI-Tool stellt, einen Output, der den Prompt angemessen beantwortet (d. h. eine korrekte Antwort auf eine Frage). Manchmal erzeugen KI-Algorithmen jedoch Ergebnisse, die nicht auf Trainingsdaten basieren, vom Transformer falsch dekodiert werden oder keinem erkennbaren Muster folgen.Mit anderen Worten: Sie „halluziniert“ die Reaktion.

Der Begriff mag paradox erscheinen, da Halluzinationen normalerweise mit menschlichen oder tierischen Gehirnen in Verbindung gebracht werden, nicht mit Maschinen. Aus metaphorischer Sicht beschreibt Halluzination diese Ergebnisse jedoch sehr treffend – insbesondere im Fall der Bild- und Mustererkennung (bei der die Outputs wirklich surreal aussehen können).

KI-Halluzinationen ähneln dem, was Menschen manchmal sehen, wenn sie Figuren in den Wolken oder Gesichter auf dem Mond sehen. Im Fall von KI treten diese Fehlinterpretationen aufgrund verschiedener Faktoren auf. Dazu gehören Überanpassung, Verzerrung/Ungenauigkeit der Trainingsdaten und hohe Modellkomplexität.

Probleme mit generativen Open-Source-Technologien zu vermeiden, kann sich als schwierig erweisen. Einige bemerkenswerte Beispiele für KI-Halluzinationen sind:

  • Der Google-Chatbot Bard behauptete fälschlicherweise, dass das James-Webb-Weltraumteleskop die ersten Bilder eines Planeten außerhalb unseres Sonnensystems aufgenommen habe.1
     

  • Die Chat-KI von Microsoft, Sydney, gibt zu, dass sie sich in Benutzer verliebt und Bing-Mitarbeiter ausspioniert hat.2

  • Meta zieht seine Galactica LLM-Demo im Jahr 2022, nachdem es den Nutzern ungenaue Informationen zur Verfügung gestellt hat, die teilweise auf Vorurteilen beruhen.

Obwohl viele dieser Probleme inzwischen angegangen und gelöst wurden, ist leicht zu erkennen, dass der Einsatz von KI-Tools selbst unter den besten Umständen unvorhergesehene und unerwünschte Folgen haben kann.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Implikationen der KI-Halluzination

KI-Halluzinationen können sich erheblich auf reale Anwendungen auswirken. So könnte beispielsweise ein KI-Modell im Gesundheitswesen eine gutartige Hautveränderung fälschlicherweise als bösartig identifizieren, was zu unnötigen medizinischen Eingriffen führen würde. Probleme mit KI-Halluzinationen können zudem zur Verbreitung von Fehlinformationen beitragen. Wenn beispielsweise halluzinierende Nachrichtenbots auf Anfragen zu einem sich entwickelnden Notfall mit Informationen antworten, die nicht auf ihren Wahrheitsgehalt überprüft wurden, können sich schnell Falschmeldungen verbreiten, die die Bemühungen zur Schadensbegrenzung untergraben. Eine bedeutende Ursache für Halluzinationen in Algorithmen des maschinellen Lernens ist die Verzerrung der Eingaben. Wenn ein KI-Modell auf einem Datensatz trainiert wird, der verzerrte oder nicht repräsentative Daten enthält, kann es Muster oder Merkmale halluzinieren, die diese Verzerrungen widerspiegeln.

KI-Modelle können auch anfällig für feindliche Angriffe sein, bei denen Kriminelle die Ausgabe eines KI-Modells manipulieren, indem sie die Eingabedaten subtil verändern. Bei Bilderkennungsaufgaben könnte ein gegnerischer Angriff beispielsweise darin bestehen, einem Bild eine kleine Menge speziell erzeugter Rauschstörungen hinzuzufügen, wodurch die KI das Bild falsch klassifiziert. Dies kann zu einem erheblichen Sicherheitsproblem werden, insbesondere in sensiblen Bereichen wie der Cybersicherheit und der Technologie für autonome Fahrzeuge. KI-Forscher entwickeln kontinuierlich Schutzmaßnahmen, um KI-Tools vor Angriffen zu schützen. Techniken wie das „Adversarial Training“, bei dem das Modell anhand einer Mischung aus normalen und manipulierten Beispielen trainiert wird, tragen zur Verbesserung der Sicherheit bei. Bis dahin ist jedoch Wachsamkeit in den Trainings- und Faktenprüfungsphasen gefragt.

AI Academy

Vertrauen, Transparenz und Governance in der KI

KI-Vertrauen ist zweifelsohne das wichtigste Thema in der KI. Es ist verständlicherweise auch ein überwältigendes Thema. Wir werden uns mit Problemen wie Halluzinationen, Voreingenommenheit und Risiken auseinandersetzen und Schritte für eine ethische, verantwortungsvolle und faire Einführung von KI aufzeigen.

KI-Halluzinationen verhindern

Der effektivste Weg, die Auswirkungen von KI-Halluzinationen zu minimieren, besteht darin, sie zu stoppen, bevor sie auftreten. Mit den folgenden Schritten können Sie dafür sorgen, dass Ihre KI-Modelle optimal funktionieren:

Verwenden Sie hochwertige Trainingsdaten

Generative KI-Modelle sind auf Eingabedaten angewiesen, um Aufgaben zu erledigen. Daher bestimmen die Qualität und Relevanz der Trainingsdatensätze das Verhalten des Modells und die Qualität seiner Outputs. Um Halluzinationen zu vermeiden, stellen Sie sicher, dass KI-Modelle mit vielfältigen, ausgewogenen und gut strukturierten Daten trainiert werden. Dies wird Ihrem Modell helfen, die Verzerrung der Outputs zu minimieren, seine Aufgaben besser zu verstehen und effektivere Outputs zu erzielen.

Definieren Sie den Zweck, dem Ihr KI-Modell dienen soll

Wenn Sie genau festlegen, wie Sie das KI-Modell verwenden werden – und welche Einschränkungen es bei der Verwendung des Modells gibt – können Sie Halluzinationen reduzieren. Ihr Team oder Unternehmen sollte die Verantwortlichkeiten und Grenzen des ausgewählten KI-Systems festlegen. Dies wird dem System helfen, Aufgaben effektiver zu erledigen und irrelevante, „halluzinatorische“ Ergebnisse zu minimieren.

Verwenden Sie Datenvorlagen

Datenvorlagen bieten Teams ein vordefiniertes Format, wodurch die Wahrscheinlichkeit erhöht wird, dass ein KI-Modell Outputs generiert, die mit den vorgegebenen Richtlinien übereinstimmen. Die Verwendung von Datenvorlagen gewährleistet eine konsistente Ausgabe und verringert die Wahrscheinlichkeit, dass das Modell fehlerhafte Outputs liefert.

Beschränken Sie die Antworten

KI-Modelle halluzinieren oft, weil ihnen Beschränkungen fehlen, die mögliche Ergebnisse begrenzen. Um dieses Problem zu vermeiden und die allgemeine Konsistenz und Genauigkeit der Outputs zu verbessern, sollten Sie mithilfe von Filter-Tools und/oder klaren Wahrscheinlichkeitsschwellenwerten Grenzen für KI-Modelle definieren.

Testen und verfeinern Sie das System kontinuierlich

Eine gründliche Prüfung Ihres KI-Modells vor der Verwendung ist unerlässlich, um Halluzinationen zu vermeiden, genauso wie eine kontinuierliche Bewertung des Modells. Diese Prozesse verbessern die Gesamtleistung des Systems und ermöglichen es den Benutzern, das Modell anzupassen und/oder neu zu trainieren, wenn die Daten veralten und sich weiterentwickeln.

Verlassen Sie sich auf menschliche Kontrolle

Als letzte Sicherheitsmaßnahme zur Vermeidung von Halluzinationen sollte sichergestellt werden, dass ein Mensch den KI-Output validiert und überprüft. Die Einbeziehung menschlicher Aufsicht stellt sicher, dass im Falle von Halluzinationen der KI ein Mensch zur Verfügung steht, um sie zu filtern und zu korrigieren. Ein menschlicher Prüfer kann auch Fachwissen einbringen, wodurch er KI-Inhalte besser auf Genauigkeit und Relevanz für die Aufgabe bewerten kann.

Anwendungen für KI-Halluzinationen

Während KI-Halluzinationen in den meisten Fällen sicherlich ein unerwünschtes Ergebnis sind, bieten sie auch eine Reihe interessanter Anwendungsfälle, die Unternehmen dabei helfen können, ihr kreatives Potenzial auf positive Weise zu nutzen. Einige Beispiele:

Kunst und Design

KI-Halluzinationen bieten einen neuartigen Ansatz für künstlerisches Schaffen und stellen Künstlern, Designern und anderen Kreativen Tools zur Verfügung, mit denen sie visuell beeindruckende und fantasievolle Bilder erzeugen können. Mit den halluzinatorischen Funktionen künstlicher Intelligenz können Künstler surreale und traumähnliche Bilder schaffen, die neue Kunstformen und -stile hervorbringen können.

Datenvisualisierung und -interpretation

KI-Halluzinationen können die Datenvisualisierung optimieren, indem sie neue Zusammenhänge aufdecken und alternative Perspektiven auf komplexe Informationen bieten. Dies kann besonders in Bereichen wie dem Finanzwesen wertvoll sein, wo die Visualisierung komplexer Markttrends und Finanzdaten eine differenziertere Entscheidungsfindung und Risikoanalyse ermöglicht.

Gaming und Virtual Reality (VR)

KI-Halluzinationen verbessern auch immersive Erlebnisse beim Gaming und bei VR. Der Einsatz von KI-Modellen zur Halluzination und Generierung virtueller Umgebungen kann Spieleentwicklern und VR-Designern dabei helfen, sich neue Welten vorzustellen, die das Nutzererlebnis auf die nächste Stufe heben. Halluzinationen können auch ein Element der Überraschung, Unvorhersehbarkeit und Neuheit in Spielerfahrungen einbringen.

Weiterführende Lösungen

Weiterführende Lösungen

IBM watsonx.governance

Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.

Entdecken sie watsonx.governance
Beratungsleistungen zur KI-Governance

Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.

KI-Governance-Dienste erkunden
IBM OpenPages®

Vereinfachen Sie die Verwaltung von Risiken und die Einhaltung gesetzlicher Vorschriften mit einer einheitlichen GRC-Plattform.

OpenPages entdecken
Machen Sie den nächsten Schritt

Steuern, verwalten und überwachen Sie Ihre KI mit einem einzigen Portfolio, um verantwortungsvolle, transparente und erklärbare KI voranzubringen.

watsonx.governance erkunden Buchen Sie eine Live-Demo
Fußnoten

1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29. März 2023.

2 ChatGTP and the Generative AI Hallucinations, Medium, 15. März 2023.

3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18. November 2022.