Genaue Informationen sind das Lebenselixier moderner Unternehmen. Sie sind darauf angewiesen, um wichtige Geschäftsentscheidungen zu treffen – vom Lieferkettenmanagement bis zum Produktmarketing.
Künstliche Intelligenz (KI) kann diese datengestützte Entscheidungsfindung zwar verbessern, sie kann sie aber auch behindern. KI-generierte Inhalte können voller Fehler sein, von gefälschten Schlagzeilen über schlechte Rechtsberatung bis hin zu Pizzarezepten mit Klebstoff als Hauptzutat.1
Werden wir jemals einen Punkt erreichen, an dem solche Situationen der Vergangenheit angehören? So sehr KI-Enthusiasten das auch gerne glauben würden, die Antwort lautet wahrscheinlich nicht.
Modelle der generativen KI, erklärt Matt Candy von IBM, sind immer anfällig dafür, versehentlich zumindest einige Fehlinformationen zu produzieren. „Aufgrund der Tatsache, dass diese Dinge prädiktiver Natur sind (sie sagen voraus und erraten, was das nächste Wort ist), besteht immer ein gewisses Risiko“, sagt Candy, Global Managing Partner für generative KI bei IBM® Consulting.
Candy fügt hinzu, dass auch Modelle des traditionellen maschinellen Lernens (ML) nicht vor der Produktion von Fehlinformationen gefeit sind. „Diese Modelle sind statistische Maschinen, die versuchen, eine Art von Ergebnis vorherzusagen“, sagt er. „Am Ende des Tages können diese Modelle also immer noch eine falsche Antwort oder ein falsches Ergebnis vorhersagen.“
Die gute Nachricht ist jedoch, dass es mehrere Schritte gibt, die Unternehmen zur Verringerung des Risikos ergreifen können, dass ihre eigenen KI-Systeme Fehlinformationen produzieren und verbreiten.
Wenn diese Maßnahmen nicht alle Fälle von KI-generierten Fehlinformationen verhindern, können Unternehmen auch Sicherheitsvorkehrungen zur Erkennung von Fehlinformationen treffen, bevor diese Schaden anrichten.
Bevor wir untersuchen, wie sich Unternehmen vor KI-generierten Fehlinformationen schützen können, ist es wichtig, einen genaueren Blick auf Fehlinformationen und verwandte Konzepte zu werfen. Diese Konzepte gehen der heute weit verbreiteten Nutzung von KI in Informationsökosystemen weitgehend voraus, aber der Einfluss der KI auf diese Phänomene ist erheblich.
Fehlinformationen sind falsche Informationen. Einige Definitionen weisen auch darauf hin, dass Fehlinformationen nicht absichtlich zur Täuschung anderer erstellt werden, sondern auf Irrtümer zurückzuführen sind.
Beispiele für KI-generierte Fehlinformationen sind große Sprachmodelle (LLMs), die ungenaue oder unsinnige Ausgaben produzieren, und KI-generierte Bilder mit unrealistischen oder ungenauen Darstellungen (wie „echte Menschen“ mit zu vielen Armen).
KI-Halluzinationen sind eine häufige Ursache für von KI generierte Fehlinformationen. KI-Halluzinationen treten auf, wenn KI-Algorithmen Outputs erzeugen, die nicht auf Trainingsdaten basieren, vom Transformer falsch dekodiert werden oder keinem erkennbaren Muster folgen.
„Halluzinationen entstehen dadurch, dass ein KI-Modell versucht sicherzustellen, dass die Sprache flüssig ist, aber auch verschiedene Informationsquellen zusammenzufügen“, erklärt Kush Varshney, IBM Fellow bei IBM® Research. „Selbst bei Menschen kann es zu Fehlern kommen, wenn wir versuchen, mehrere Dinge gleichzeitig zu erledigen. Das passiert auch mit dem KI-Modell. Es verliert den Überblick über Informationen, während es versucht, die Sprache flüssig zu gestalten, und umgekehrt.“
Desinformation wird manchmal als eine Art von Fehlinformation betrachtet, unterscheidet sich aber dadurch, dass es sich um gefälschte Inhalte handelt, die zur Täuschung des Publikums erstellt wurden. Beispiele hierfür sind Verschwörungstheorien und in jüngerer Zeit auch gefälschtes Audio- und Bildmaterial.
Prominente Fälle von Desinformation, die durch Bots und andere KI-Tools ermöglicht wurden, gab es im Vorfeld der amerikanischen Präsidentschaftswahlen 2024. Dazu gehörten ein Robocall, der die Stimme des damaligen Präsidenten und demokratischen Kandidaten Joe Biden imitierte, und die Verbreitung von Bildern, die falsche Empfehlungen von Prominenten für den republikanischen Präsidenten Donald Trump enthielten.2,3
Tools zur Erkennung von KI-generierten Deepfakes und anderen irreführenden, desinformierenden Inhalten haben gemischte Ergebnisse geliefert, obwohl sich die neueste Generation von KI-Textdetektoren als effektiver erwiesen hat als frühere Versionen.4,5 Inzwischen haben Social-Media-Plattformen wie TikTok und Facebook mit der Kennzeichnung von KI-generierten Inhalten begonnen.6
Im Gegensatz zu Fehlinformationen und Desinformationen handelt es sich bei Malinformationen um potenziell schädliche Informationen, die auf der Realität und den Fakten beruhen. Malinformationen sind schädlich, weil sie verbreitet werden, um anderen zu schaden, z. B. Personen oder Unternehmen.
Die unerlaubte Weitergabe vertraulicher Informationen fällt zum Beispiel unter den Begriff der Malinformation, eine Praxis, die durch KI noch verstärkt wird. Betrüger können generative KI-Tools nutzen, um raffinierte und effektive Phishing-E-Mails zu erstellen, die ihnen helfen, vertrauliche Informationen zu erhalten und zu verbreiten.
Es mag unmöglich sein, sicherzustellen, dass alle KI-Ausgaben völlig fehlerfrei sind. Es gibt jedoch Schritte, die Unternehmen unternehmen können, um die Wahrscheinlichkeit, dass ihre KI-Systeme ungenaue oder komplett falsche Informationen produzieren, deutlich zu verringern.
Qualitativ hochwertige Daten sind für die Leistung von KI-Modellen von entscheidender Bedeutung. Modelle sollten auf vielfältigen, ausgewogenen und gut strukturierten Daten trainiert werden, um das Risiko von Verzerrungen und Halluzinationen zu minimieren. Technologieunternehmen und KI-Entwickler können die Qualität der Trainingsdaten verbessern, indem sie Tools zur Datenaufbereitung und Datenfilterung einsetzen, um minderwertige Daten und hasserfüllte Inhalte, einschließlich Fehlinformationen, zu entfernen.
Eines der beliebtesten Tools zur Verringerung der Wahrscheinlichkeit von KI-Halluzinationen ist Retrieval-Augmented Generation (RAG). RAG ist eine Architektur, die generative KI-Modelle mit externen Datenquellen verbindet, z. B. mit den Organisationsdaten eines Unternehmens, mit akademischen Fachzeitschriften und speziellen Datensätzen. Durch den Zugriff auf solche Informationen können KI-Chatbots und andere Tools genauere, bereichsspezifische Inhalte produzieren.
Während verbraucherorientierte LLM-Anwendungen in ChatGPT von OpenAI die Aufmerksamkeit der Öffentlichkeit auf sich gezogen haben, stellen Unternehmen häufig fest, dass kleinere, spezialisiertere KI-Modelle ihren Anforderungen besser entsprechen und gleichzeitig weniger anfällig für Halluzinationen sind.
„Es gibt diese großen Grenzmodelle, die auf so viele Daten wie möglich trainiert wurden“, sagt Candy. „Aber wenn Sie an die meisten Anwendungsfälle in Unternehmen denken, brauchen Sie kein Modell, das auf den gesamten Werken von Shakespeare, Reddit und allen anderen öffentlich verfügbaren Daten trainiert ist.“
Da kleinere Modelle engere Kontextfenster haben und weniger Parameter verwenden, sinkt das Risiko von Halluzinationen. „Die Wahrscheinlichkeit, dass Dinge durcheinander geraten, ist geringer“, fügt Varshney hinzu.
Bei der Vermeidung von Schäden, die durch KI-generierte Fehlinformationen verursacht werden, sind Maßnahmen zur Abschwächung von Halluzinationen nur ein Teil des Puzzles. Darüber hinaus sollten Unternehmen über Strategien und Tools verfügen, um Halluzinationen und ungenaue Outputs zu erkennen, die durchschlüpfen.
Führende KI-Governance-Plattformen und Foundation Models verfügen jetzt über die Fähigkeit, Halluzinationen zu erkennen. IBM® watsonx.governance und die neueste Version von IBM Granite Guardian (IBM® Granite Guardian 3.1, Teil der IBM Familie von Granite-Sprachmodellen für Unternehmen) bewerten die Leistung generativer KI-Modelle anhand von Metriken wie Antwortrelevanz und „Treue“ (Faithfulness).
„Es wird als ‚ Treue‘ bezeichnet, was das Gegenteil von Halluzination ist“, erklärt Varshney. „Wenn eine Antwort ihren Quelldokumenten ‚treu‘ bleibt, halluziniert sie nicht. Granite Guardian 3.1 bietet außerdem Funktionen zur Erkennung von kontraproduktiver KI-Nutzung und -Ausgabe, wie z. B. Jailbreaking, Obszönität und soziale Voreingenommenheit.
Ungeachtet der KI-Governance-Tools spielt der Mensch immer noch eine wichtige Rolle, wenn es um die Verhinderung der Verbreitung von KI-generierten Fehlinformationen geht. Bei der Implementierung von KI-Systemen sollten Unternehmen darauf achten, wo sie Kontrollpunkte einrichten, die eine menschliche Aufsicht ermöglichen, sagt Candy. „Wir müssen gezielt Punkte im Prozess einrichten, an denen es menschliche Interaktion, menschliche Kontrollen und menschliche Entscheidungen gibt.“
Mit dem Aufkommen leistungsfähiger KI-Agenten, die immer anspruchsvollere Aufgaben bewältigen können, sind solche menschlichen Entscheidungen besonders wichtig, meint er.
Ein Biowissenschaftsunternehmen könnte beispielsweise mehrere KI-Agenten für die Recherche und das Verfassen von Berichten über die Einhaltung von Vorschriften bei der Entwicklung neuer Medikamente einsetzen. Das Unternehmen würde jedoch weiterhin einen menschlichen Mitarbeiter einbinden, der die Berichte überprüft und die Informationen kontrolliert, bevor sie bei einer Regierungsbehörde eingereicht werden.
„Letztendlich wird immer noch ein Mensch in den Prozess eingebunden sein, der ihn überprüft und validiert“, sagt Candy. „Ich würde die Bedeutung der menschlichen Komponente nicht unterschätzen.“
1 „Google promised a better search experience – now it’s telling us to put glue on our pizza“. The Verge. 23. Mai 2024.
2 „A New Orleans magician says a Democratic operative paid him to make the fake Biden robocall“. NBC News. 23. Februar 2024.
3 „Fake celebrity endorsements become latest weapon in misinformation wars, sowing confusion ahead of 2024 election“. CNN. 22. August 2024.
4, 6 „Using AI to detect AI-generated deepfakes can work for audio – but not always“. NPR. 5. April 2024.
5 „Robustness of generative AI detection: adversarial attacks on black-box neural text detectors“. International Journal of Speech Technology. 16. Oktober 2024.
Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Erschließen Sie das volle Potenzial Ihrer KI und erfahren Sie, wie KI-Governance dazu beitragen kann, das Vertrauen Ihrer Mitarbeiter in KI zu stärken, die Akzeptanz und Innovation zu beschleunigen und das Vertrauen Ihrer Kunden zu verbessern.
Bereiten Sie sich auf die EU-Verordnung über künstliche Intelligenz vor und etablieren Sie mithilfe von IBM® Consulting einen verantwortungsvollen KI-Governance-Ansatz.