Der generative KI-Boom hat alles hervorgebracht, von viralen Chatbots bis hin zu milliardenschweren Bewertungen. Doch die ethische Grundlage, die dem Ganzen zugrunde liegt, ist nach wie vor besorgniserregend dünn.
Innerhalb eines einzigen Monats gewann und verlor OpenAI Markenrechte vor Bundesgerichten, und Anthropic setzte einen von seinem eigenen Claude-Modell erstellten Blog still und leise zurück, nachdem Nutzer den Text als vage und irreführend kritisiert hatten. Da KI-Systeme branchen- und schnittstellenübergreifend skalieren, sind Fragen zu Verantwortung, Sicherheit und Integrität nicht mehr theoretisch. Sie sind einsatzbereit.
Diese Lücke zwischen Funktionen und Glaubwürdigkeit steht im Mittelpunkt einer wachsenden ethischen Abwägung innerhalb der KI-Welt. Ethik wird üblicherweise als zusätzliche Schicht und nicht als strukturelle Grundlage betrachtet. Innerhalb von IBM versuchen einige Teams jedoch, dieses Muster umzukehren, indem sie ethische Zwänge direkt in die Schulung, das Marketing und die Bereitstellung von Systemen einbeziehen.
PJ Hagerty, ein Veteran der Entwicklergemeinschaft mit Wurzeln in Open-Source-Tools und Produkt-Evangelisierung, ist einer der an dieser Arbeit beteiligten Personen. Als KI-Advocacy Lead bei IBM ist es seine Aufgabe, Entwicklern zu helfen, KI effektiver und verantwortungsvoller einzusetzen. In der Praxis bedeutet dies jedoch etwas Umfassenderes: übertriebenen Hype hinterfragen, Grenzen verdeutlichen und realistische Erwartungen setzen. „Wir bauen keine Köpfe auf“, sagte er mir. „Wir bauen Tools. Lassen Sie uns so handeln.“
Im Bereich der KI liegt der Fokus heute vor allem auf dem Output – was ein Modell generiert, wie genau oder überzeugend es ist und wie gut es im Vergleich zu Benchmarks abschneidet. Für Hagerty beginnt die eigentliche ethische Spannung jedoch früher, auf der Ebene des Foundation-Modells. Dies ist die rohe Infrastruktur moderner KI, die Basis des maschinellen Lernens, das auf riesigen Datensätzen aus dem Web trainiert wird. Das ist es, was große Sprachmodelle (LLMs) wie ChatGPT und Claude antreibt.
„Das Geschehen findet auf dem Fundament statt“, sagte Hagerty zu mir. „Das ist das Erste, was das System lernt, und wenn es voller Datenmüll ist, verschwindet dieser Datenmüll nicht.“
Diese Basismodelle sind für den allgemeinen Gebrauch konzipiert. Das macht sie beide mächtig und gefährlich, sagte Hagerty. Weil sie nicht für bestimmte Aufgaben oder Einschränkungen entwickelt wurden, neigen sie dazu, alles zu absorbieren, von wertvollen semantischen Strukturen bis hin zu giftigem Internetschlamm. Und wenn die Modelle einmal trainiert sind, sind sie schwer zu überprüfen. Selbst ihre Schöpfer können oft nicht mit Sicherheit sagen, was ein Modell weiß oder wie es auf eine bestimmte Eingabe reagieren wird.
Hagerty verglich dies mit dem Betonieren eines defekten Betonsockels für einen Wolkenkratzer. Wenn die Mischung von Anfang an falsch ist, sind Risse möglicherweise nicht sofort sichtbar. Doch mit der Zeit wird die Struktur instabil. In der KI ist das Äquivalent sprödes Verhalten, unbeabsichtigte Verzerrungen oder katastrophaler Missbrauch, sobald ein System eingesetzt wird. Ohne sorgfältige Gestaltung im frühen Stadium trägt ein Modell die während des Trainings aufgenommenen Risiken in jede nachgelagerte Anwendung ein.
Er ist mit dieser Sorge nicht allein. Forscher des Center for Forschung on Foundation Models (CRFM) der Stanford University haben wiederholt vor den neu auftretenden Risiken des groß angelegten Trainings gewarnt, darunter Verzerrungsfortpflanzung, Wissenshalluzination, Datenverunreinigung und die Schwierigkeit, Fehler genau zu lokalisieren. Diese Probleme können gemildert, aber nicht beseitigt werden, was frühe Designentscheidungen wie Datenpflege, Filterung und Governance kritisch macht.
Aus Sicht von Hagerty ist eines der größten ethischen Hindernisse für sinnvollen Fortschritt die schiere Unklarheit dessen, was Unternehmen meinen, wenn sie „KI“ sagen. Fragt man fünf Produktteams, was sie unter „KI-gestützt“ verstehen, erhält man wahrscheinlich fünf verschiedene Antworten. Hagerty betrachtet diese definitionelle Glätte als eines der wichtigsten ethischen Versäumnisse der aktuellen Ära.
„Wenn die Leute KI sagen, meinen sie meistens Automatisierung. Oder einen Entscheidungsbaum. Oder eine Wenn-Dann-Anweisung“, sagte er.
Die Unklarheit der Begriffe ist kein akademisches Problem. Wenn Unternehmen deterministische Software als intelligentes Denken präsentieren, neigen Nutzer dazu, ihr zu vertrauen. Wenn Startups einfache Such- und Filtertools als generative Modelle anbieten, werfen Investoren Geld in Trugbilder. Hagerty bezeichnet dies als „Hype Leakage“ und sieht darin eine wachsende Quelle für Verwirrung und Reputationsschäden.
In regulierten Branchen wie Finanzen oder Gesundheitswesen können die Folgen gravierender sein. Wenn ein Benutzer zu der Annahme verleitet wird, dass das System ein tiefes Bewusstsein hat, kann er Entscheidungen delegieren, die menschlich hätten bleiben sollen. Die Grenze zwischen Tool und Agent verschwimmt und damit auch die Verantwortlichkeit.
Dieses Problem führt auch zu vergeudeter Mühe. Hagerty verwies auf aktuelle Studien zum Missbrauch von LLMs für die Zeitreihenprognose, einer statistischen Methode zur Vorhersage zukünftiger Werte auf Basis historischer Daten, einer Aufgabe, bei der klassische Methoden nach wie vor genauer und effizienter sind. Dennoch verwenden einige Unternehmen weiterhin LLMs, um Neuheiten zu präsentieren oder Innovationen zu signalisieren.
„Sie verbrennen GPUs, um schlechte Antworten zu bekommen“, sagte er. „Und noch schlimmer: Sie nennen das Fortschritt.“
Das ethische Problem besteht nicht nur in der Ineffizienz. Das ist eine falsche Darstellung. Teams entwickeln Produkte rund um die Technologie, die sie kaum verstehen, fügen Marketing hinzu, das ihre Funktionen überbewertet, und bereitstellen es Benutzern, die nicht beurteilen können, was sie verwenden.
Branchen-Newsletter
Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Ein Großteil der öffentlichen Besorgnis im Zusammenhang mit KI konzentrierte sich auf die Möglichkeit eines massenhaften Arbeitsplatzverlusts. Wird KI Anwälte, Lehrer, Programmierer und Schriftsteller ersetzen? Hagerty hält diese Frage für verfrüht und schlecht formuliert.
„Die meisten dieser Tools ersetzen keine Menschen“, sagte er. „Sie ersetzen Aufgaben – und zwar nur die wirklich mühsamen.“
Er verwies auf Code-Assistenten wie watsonx Code Assistant und GitHub Copilot sowie auf Tools wie Cursor und Amazons CodeWhisperer. Diese Systeme schreiben keine kompletten Anwendungen von Grund auf neu. Sie füllen vorhersehbare Codeblöcke aus, schlagen Standardformulierungen vor und reduzieren den Aufwand für das Schreiben sich wiederholender Logik. Der Gewinn besteht nicht in Kreativität, sondern in Geschwindigkeit.
Hagerty ist der Ansicht, dass dies insgesamt positiv ist. Nachwuchsentwickler können schneller loslegen. Senior-Ingenieure können sich auf Architektur statt auf Syntax konzentrieren. Die Einstiegshürde ist niedriger und der Wartungsaufwand geringer. Aber er warnt davor, sich das als gelöstes Problem vorzustellen.
„Diese Modelle werden im offenen Web trainiert“, sagte er. „Und in diesen Datensätzen, einschließlich meiner, befindet sich eine Menge Datenmüll.“
Dieser Datenmüll umfasst unsicheren Code, veraltete Praktiken und kontextspezifische Hacks. Dazu gehören auch Plagiate, Lizenzverstöße und Ghost Bugs, die in den generierten Ausgaben wieder auftauchen können. Ein solches Modell mag zwar Zeit sparen, birgt aber auch das Risiko, genau die Probleme wieder einzuführen, die es eigentlich reduzieren sollte. Skaliert wird nicht die Qualität, sondern das, womit das Modell konfrontiert wurde.
Hier hält Hagerty die menschliche Überprüfung für unerlässlich. Das Tool kann hilfreich sein, die Verantwortung liegt aber weiterhin beim Entwickler.
Einer der berüchtigtsten Fehler bei der KI-Sicherheit ereignete sich vor fast einem Jahrzehnt, als der Tay-Chatbot auf Twitter veröffentlicht wurde. Innerhalb weniger Stunden wurde die Seite gekapert, um beleidigende Inhalte und Verschwörungstheorien zu posten. Die Entwickler haben die Seite offline genommen und sich entschuldigt. Aber die Episode wurde zu einem bleibenden Symbol dafür, was passiert, wenn Entwickler Systeme ohne Leitplanken veröffentlichen.
Heute haben die meisten Unternehmen gelernt, ihre generativen Modelle mit Moderationsschichten zu umhüllen. Filter, Klassifikatoren, Prompt-Bereinigungen und Verstärkungsoptimierung können helfen, aber sie sind nicht narrensicher. Laut Hagerty konzentrieren sich diese Maßnahmen eher auf oberflächliche Probleme, wie Sprachstil oder Obszönität, als auf tiefere Sicherheitslücken wie Prompt Injection oder böswillige Wiederverwendung. Stattdessen betrachtet er Sicherheit als eine umfassendere Designfrage. „Wird dieses Modell missbraucht? Wird es aus dem Kontext gerissen? Werden die Ergebnisse als vertrauenswürdig eingestuft, wenn sie es nicht sein sollten?“, fragte er. „Wer diese Fragen nicht durchdacht hat, ist noch nicht fertig. Er ist noch nicht produktionsreif.“
Hagerty nannte als Beispiel Tools, die Medien manipulieren oder erzeugen, wie etwa Bildgeneratoren, Videoeditoren und Sprachklonen. Diese Systeme produzieren nicht nur Inhalte, sondern sie verändern auch die Wahrnehmung. Er sagte, wenn die Ausgaben realistisch genug sind, wirken sie sich auf das Gedächtnis, das Urteilsvermögen und die Zuordnung aus.
In diesen Fällen geht es bei Sicherheit nicht um technische Korrektheit, sondern um Bewusstsein. Was passiert mit dieser Ausgabe, sobald sie das Interface verlässt? Wer sieht sie? Wovon gehen sie aus?
Diese Fragen haben selten eine einzige Antwort. Doch sie völlig zu ignorieren, sei ein Fehler, sagte Hagerty.
In schnelllebigen Technologieumgebungen kann sich Governance wie eine Belastung anfühlen. Es verlangsamt die Veröffentlichungen. Es fügt Papierkram hinzu. Es führt zu Zweideutigkeit. Für Hagerty verfehlt diese Sichtweise jedoch den Punkt.
„Man würde doch keinen ungetesteten Code ausliefern“, sagte er. „Warum sollte man ein ungeprüftes Modell ausliefern?“
Er betrachtet Tools wie IBMs watsonx.governance als notwendige Infrastruktur, nicht als optionale Extras. Mithilfe dieser Systeme können Teams Trainingsdaten verfolgen, Modelländerungen überwachen und Abweichungen im Laufe der Zeit erkennen. Sie helfen Unternehmen dabei, neue Vorschriften einzuhalten, aber was noch wichtiger ist, sie bauen institutionelles Gedächtnis auf. Sie lassen die Teams sehen, was sie gemacht haben, wie sie es gemacht haben und warum.
Dies ist nicht nur für die Compliance wichtig, sondern auch für die Qualität. Wenn ein Modell im nächsten Monat anders abschneidet, müssen Sie wissen, was sich geändert hat. Wenn es während der Produktion zu Fehlfunktionen kommt, benötigen Sie eine Möglichkeit, das Problem bis zu seiner Quelle zurückzuverfolgen. Gute Regierungsführung ist das KI-Äquivalent zur Versionskontrolle.
Und es geht über Modelle hinaus. Hagerty wies auf das wachsende Interesse am „maschinellen Verlernen“ hin, der Fähigkeit, problematische Daten oder Verhaltensweisen gezielt zu entfernen, ohne sie von Grund auf neu trainieren zu müssen. Dieser Ansatz steht zwar noch am Anfang, spiegelt aber ein breiteres Umdenken wider. Das Ziel ist nicht, intelligentere Modelle zu entwickeln, sondern Modelle zu entwickeln, die sich anpassen, korrigieren und rechenschaftspflichtig sind.
Nichts davon erfordert Perfektion. Hagerty räumt ein, dass Verzerrung bestehen bleibt, die Sicherheit nicht gewährleistet ist und Tools missbraucht werden. Der Unterschied zwischen akzeptablem Versagen und fahrlässiger Schädigung liegt jedoch im Verfahren.
„Übertreiben Sie es nicht. Vertrauen Sie nicht zu sehr. Stellen Sie frühzeitig bessere Fragen“, sagte er.
Er empfiehlt, ethische Überprüfungen in die Planungszyklen zu integrieren, nicht nur in die Checklisten für die Produkteinführung. Mit Tools wie IBM KI Fairness 360 und Granite Guardian sowie ARX können offensichtliche Probleme erkannt werden. Durchführung von Red-Team-Tests, um Grenzfälle zu finden, bevor es Benutzer tun. Und vor allem geht es um den Aufbau von Systemen, die eine Kurskorrektur erleichtern.
Bei der Arbeit, so argumentiert er, geht es nicht darum, Schaden zu verhindern. Es geht darum, Wirkung zu erzielen.
„Man wird kein perfektes System bauen können“, sagte er. „Aber man kann eines bauen, das langsamer versagt, das auf eine Weise versagt, die man versteht.“
Ethik ist in dieser Sichtweise keine Einschränkung, sondern ein Gestaltungsprinzip. Auf diese Weise lassen sich bessere Software, berechenbarere Systeme, klarere Erwartungen und letztendlich mehr Wert entwickeln.
Auf die Frage, was ihm Hoffnung gibt, sprach Hagerty nicht über Angleichung, AGI oder Frameworks. Er sprach von Code-Assistenten.
„Sie arbeiten“, sagte er. „Sie reduzieren die Reibung. Sie geben nicht vor, mehr zu tun, als sie können. Das ist das Modell, dem wir folgen sollten.“
Er will, dass KI langweilig ist. Nützlich. Schmal. Ehrlich darüber, was sie tut und wie sie funktioniert. Das bedeutet nicht, Ambitionen einzuschränken, sondern sie zu präzisieren. Wir bauen auf Zuverlässigkeit statt auf Überraschung. Wir entwickeln Systeme, die sich nicht nur bei Tests, sondern auch in der Bereitstellung gut verhalten.
Künstliche Intelligenz wird nicht verschwinden. Die Tools werden sich weiterentwickeln, aber auch die Erwartungen werden fortfahren. Und die Teams, die Erfolg haben, glaubt Hagerty, werden diejenigen sein, die technische Stärke mit ethischer Disziplin verbinden. Weil es funktioniert.
Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Erfahren Sie, wie KI-Governance dazu beitragen kann, das Vertrauen Ihrer Mitarbeiter in KI zu stärken, die Akzeptanz und Innovation zu beschleunigen und das Vertrauen Ihrer Kunden zu verbessern.
Bereiten Sie sich auf die EU-Verordnung über künstliche Intelligenz vor und etablieren Sie mithilfe von IBM® Consulting einen verantwortungsvollen KI-Governance-Ansatz.