Eine KI-Halluzination ist ein Phänomen, bei dem ein Large Language Model (LLM) (oft ein auf generativer KI basierender Chatbot oder ein Computer-Vision-Tool) Muster oder Objekte wahrnimmt, die für menschliche Beobachter entweder nicht existieren oder nicht wahrnehmbar sind, und so unsinniges oder völlig ungenaues Output erzeugt.
Im Allgemeinen möchte ein Benutzer, der eine Anfrage an ein generatives KI-Tool stellt, einen Output, der den Prompt angemessen beantwortet (d. h. eine korrekte Antwort auf eine Frage). Manchmal erzeugen KI-Algorithmen jedoch Ergebnisse, die nicht auf Trainingsdaten basieren, vom Transformer falsch dekodiert werden oder keinem erkennbaren Muster folgen.Mit anderen Worten: Sie „halluziniert“ die Reaktion.
Der Begriff mag paradox erscheinen, da Halluzinationen normalerweise mit menschlichen oder tierischen Gehirnen in Verbindung gebracht werden, nicht mit Maschinen. Aus metaphorischer Sicht beschreibt Halluzination diese Ergebnisse jedoch sehr treffend – insbesondere im Fall der Bild- und Mustererkennung (bei der die Outputs wirklich surreal aussehen können).
KI-Halluzinationen ähneln dem, was Menschen manchmal sehen, wenn sie Figuren in den Wolken oder Gesichter auf dem Mond sehen. Im Fall von KI treten diese Fehlinterpretationen aufgrund verschiedener Faktoren auf. Dazu gehören Überanpassung, Verzerrung/Ungenauigkeit der Trainingsdaten und hohe Modellkomplexität.
Probleme mit generativen Open-Source-Technologien zu vermeiden, kann sich als schwierig erweisen. Einige bemerkenswerte Beispiele für KI-Halluzinationen sind:
Der Google-Chatbot Bard behauptete fälschlicherweise, dass das James-Webb-Weltraumteleskop die ersten Bilder eines Planeten außerhalb unseres Sonnensystems aufgenommen habe.1
Die Chat-KI von Microsoft, Sydney, gibt zu, dass sie sich in Benutzer verliebt und Bing-Mitarbeiter ausspioniert hat.2
Obwohl viele dieser Probleme inzwischen angegangen und gelöst wurden, ist leicht zu erkennen, dass der Einsatz von KI-Tools selbst unter den besten Umständen unvorhergesehene und unerwünschte Folgen haben kann.
KI-Halluzinationen können sich erheblich auf reale Anwendungen auswirken. So könnte beispielsweise ein KI-Modell im Gesundheitswesen eine gutartige Hautveränderung fälschlicherweise als bösartig identifizieren, was zu unnötigen medizinischen Eingriffen führen würde. Probleme mit KI-Halluzinationen können zudem zur Verbreitung von Fehlinformationen beitragen. Wenn beispielsweise halluzinierende Nachrichtenbots auf Anfragen zu einem sich entwickelnden Notfall mit Informationen antworten, die nicht auf ihren Wahrheitsgehalt überprüft wurden, können sich schnell Falschmeldungen verbreiten, die die Bemühungen zur Schadensbegrenzung untergraben. Eine bedeutende Ursache für Halluzinationen in Algorithmen des maschinellen Lernens ist die Verzerrung der Eingaben. Wenn ein KI-Modell auf einem Datensatz trainiert wird, der verzerrte oder nicht repräsentative Daten enthält, kann es Muster oder Merkmale halluzinieren, die diese Verzerrungen widerspiegeln.
KI-Modelle können auch anfällig für feindliche Angriffe sein, bei denen Kriminelle die Ausgabe eines KI-Modells manipulieren, indem sie die Eingabedaten subtil verändern. Bei Bilderkennungsaufgaben könnte ein gegnerischer Angriff beispielsweise darin bestehen, einem Bild eine kleine Menge speziell erzeugter Rauschstörungen hinzuzufügen, wodurch die KI das Bild falsch klassifiziert. Dies kann zu einem erheblichen Sicherheitsproblem werden, insbesondere in sensiblen Bereichen wie der Cybersicherheit und der Technologie für autonome Fahrzeuge. KI-Forscher entwickeln kontinuierlich Schutzmaßnahmen, um KI-Tools vor Angriffen zu schützen. Techniken wie das „Adversarial Training“, bei dem das Modell anhand einer Mischung aus normalen und manipulierten Beispielen trainiert wird, tragen zur Verbesserung der Sicherheit bei. Bis dahin ist jedoch Wachsamkeit in den Trainings- und Faktenprüfungsphasen gefragt.
Der effektivste Weg, die Auswirkungen von KI-Halluzinationen zu minimieren, besteht darin, sie zu stoppen, bevor sie auftreten. Mit den folgenden Schritten können Sie dafür sorgen, dass Ihre KI-Modelle optimal funktionieren:
Generative KI-Modelle sind auf Eingabedaten angewiesen, um Aufgaben zu erledigen. Daher bestimmen die Qualität und Relevanz der Trainingsdatensätze das Verhalten des Modells und die Qualität seiner Outputs. Um Halluzinationen zu vermeiden, stellen Sie sicher, dass KI-Modelle mit vielfältigen, ausgewogenen und gut strukturierten Daten trainiert werden. Dies wird Ihrem Modell helfen, die Verzerrung der Outputs zu minimieren, seine Aufgaben besser zu verstehen und effektivere Outputs zu erzielen.
Wenn Sie genau festlegen, wie Sie das KI-Modell verwenden werden – und welche Einschränkungen es bei der Verwendung des Modells gibt – können Sie Halluzinationen reduzieren. Ihr Team oder Unternehmen sollte die Verantwortlichkeiten und Grenzen des ausgewählten KI-Systems festlegen. Dies wird dem System helfen, Aufgaben effektiver zu erledigen und irrelevante, „halluzinatorische“ Ergebnisse zu minimieren.
Datenvorlagen bieten Teams ein vordefiniertes Format, wodurch die Wahrscheinlichkeit erhöht wird, dass ein KI-Modell Outputs generiert, die mit den vorgegebenen Richtlinien übereinstimmen. Die Verwendung von Datenvorlagen gewährleistet eine konsistente Ausgabe und verringert die Wahrscheinlichkeit, dass das Modell fehlerhafte Outputs liefert.
KI-Modelle halluzinieren oft, weil ihnen Beschränkungen fehlen, die mögliche Ergebnisse begrenzen. Um dieses Problem zu vermeiden und die allgemeine Konsistenz und Genauigkeit der Outputs zu verbessern, sollten Sie mithilfe von Filter-Tools und/oder klaren Wahrscheinlichkeitsschwellenwerten Grenzen für KI-Modelle definieren.
Eine gründliche Prüfung Ihres KI-Modells vor der Verwendung ist unerlässlich, um Halluzinationen zu vermeiden, genauso wie eine kontinuierliche Bewertung des Modells. Diese Prozesse verbessern die Gesamtleistung des Systems und ermöglichen es den Benutzern, das Modell anzupassen und/oder neu zu trainieren, wenn die Daten veralten und sich weiterentwickeln.
Als letzte Sicherheitsmaßnahme zur Vermeidung von Halluzinationen sollte sichergestellt werden, dass ein Mensch den KI-Output validiert und überprüft. Die Einbeziehung menschlicher Aufsicht stellt sicher, dass im Falle von Halluzinationen der KI ein Mensch zur Verfügung steht, um sie zu filtern und zu korrigieren. Ein menschlicher Prüfer kann auch Fachwissen einbringen, wodurch er KI-Inhalte besser auf Genauigkeit und Relevanz für die Aufgabe bewerten kann.
Während KI-Halluzinationen in den meisten Fällen sicherlich ein unerwünschtes Ergebnis sind, bieten sie auch eine Reihe interessanter Anwendungsfälle, die Unternehmen dabei helfen können, ihr kreatives Potenzial auf positive Weise zu nutzen. Einige Beispiele:
KI-Halluzinationen bieten einen neuartigen Ansatz für künstlerisches Schaffen und stellen Künstlern, Designern und anderen Kreativen Tools zur Verfügung, mit denen sie visuell beeindruckende und fantasievolle Bilder erzeugen können. Mit den halluzinatorischen Funktionen künstlicher Intelligenz können Künstler surreale und traumähnliche Bilder schaffen, die neue Kunstformen und -stile hervorbringen können.
KI-Halluzinationen können die Datenvisualisierung optimieren, indem sie neue Zusammenhänge aufdecken und alternative Perspektiven auf komplexe Informationen bieten. Dies kann besonders in Bereichen wie dem Finanzwesen wertvoll sein, wo die Visualisierung komplexer Markttrends und Finanzdaten eine differenziertere Entscheidungsfindung und Risikoanalyse ermöglicht.
KI-Halluzinationen verbessern auch immersive Erlebnisse beim Gaming und bei VR. Der Einsatz von KI-Modellen zur Halluzination und Generierung virtueller Umgebungen kann Spieleentwicklern und VR-Designern dabei helfen, sich neue Welten vorzustellen, die das Nutzererlebnis auf die nächste Stufe heben. Halluzinationen können auch ein Element der Überraschung, Unvorhersehbarkeit und Neuheit in Spielerfahrungen einbringen.
Erfahren Sie, wie sich das EU-Gesetz zur KI auf die Wirtschaft auswirken wird, wie Sie sich vorbereiten, wie Sie Risiken mindern können und wie Sie Regulierung und Innovation in Einklang bringen.
Erfahren Sie mehr über die neuen Herausforderungen der generativen KI, die Notwendigkeit der Steuerung von KI- und ML-Modellen und die Schritte zum Aufbau eines vertrauenswürdigen, transparenten und erklärbaren KI-Frameworks.
Erfahren Sie, wie Sie mit einem Portfolio von KI-Produkten für generative KI-Modelle ethische und gesetzeskonforme Praktiken fördern.
Gewinnen Sie mit watsonx.governance ein tieferes Verständnis dafür, wie Sie Fairness gewährleisten, Drifts verwalten, die Qualität aufrechterhalten und die Erklärbarkeit verbessern können.
Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.
Vereinfachen Sie die Verwaltung von Risiken und die Einhaltung gesetzlicher Vorschriften mit einer einheitlichen GRC-Plattform.
1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29. März 2023.
2 ChatGTP and the Generative AI Hallucinations, Medium, 15. März 2023.
3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18. November 2022.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io