Datenschutzleitfaden für KI und maschinelles Lernen

Person, die digitale Daten auf einem Tablet mit einem Vorhängeschloss und einem Häkchensymbol sichert.

Während Datenschutz im Allgemeinen seit langem ein Problem darstellt, wird mit dem Begriff „KI-Datenschutz“ anerkannt, dass die neue Technologie der künstlichen Intelligenz neue Risiken und Datenschutzbedenken mit sich bringt.  

Während des Trainings lernen KI-Systeme aus riesigen Datensätzen. Der Common Crawl Datensatz, mit dem viele Modelle trainiert werden, enthält über 9,5 Petabyte an Daten.1 Viele Menschen, die täglich mit KI arbeiten, füttern möglicherweise auch Systeme mit sensiblen Daten, ohne sich darüber im Klaren zu sein, dass sie damit ihre persönliche Privatsphäre untergraben. Und da sich die Bereitstellung von KI auf eine Ära von KI-Agenten ausdehnt, werden neue Arten von Datenschutzverletzungen möglich, wenn keine angemessenen Zugriffskontrollen oder KI-Governance vorhanden sind.

Eine veränderte Risikolandschaft

KI-Modelle verarbeiten nicht nur mehr Daten; Sie behandeln Daten auch anders als ältere Systeme. Wenn eine traditionelle Software versehentlich sensible Informationen offenlegt, kann ein Techniker den Code debuggen . Aber KI-Modelle (einschließlich großer Sprachmodelle wie ChatGPT) werden nicht so sehr kodiert, sondern durch einen Prozess namens maschinelles Lernen weiterentwickelt. Ihre eigenen Entwickler wissen nicht genau, wie sie funktionieren, was das „Debuggen“ schwierig, wenn nicht gar unmöglich macht.

Unbeabsichtigte Ausgaben sind das eine Problem, aber Unternehmen müssen sich auch vor vorsätzlichen, böswilligen Angriffen hüten. Forscher haben nachgewiesen, dass KI-Tools neue Arten von Sicherheitslücken mit sich bringen, die clevere Hacker ausnutzen können, ein Bereich, der als gegnerisches maschinelles Lernen bekannt ist. 

So haben beispielsweise Cybersicherheitsexperten in den letzten Jahren bewiesen, dass ein Angreifer durch Ausnutzung einer Besonderheit von KI-Modellen – nämlich der Tatsache, dass deren Ausgaben höhere Konfidenzwerte erhalten, wenn sie auf Daten reagieren, mit denen sie trainiert wurden – ableiten kann, ob bestimmte Daten in einem Trainingsdatensatz enthalten waren. In bestimmten Szenarien wäre eine solche Schlussfolgerung eine erhebliche Verletzung des Datenschutzes. Nehmen wir zum Beispiel ein KI-Modell, das bekanntermaßen anhand privater Krankenakten von HIV-positiven Patienten trainiert wurde.

In einem anderen bekannten Fall gingen die Forscher über die bloße Schlussfolgerung hinaus, ob Daten in einem Trainingssatz enthalten waren. Sie entwickelten einen algorithmischen Angriff, der die tatsächlichen Daten, die zum Trainieren eines Modells verwendet wurden, effektiv rückentwickeln konnte. Durch die Ausnutzung eines Aspekts von KI-Modellen, der als „Gradienten“ bekannt ist, waren Forscher in der Lage, ein mit Rauschen gefülltes Bild iterativ zu einem Bild zu verfeinern, das einem tatsächlichen Gesicht, das zum Schulen eines Gesichtserkennungsmodells verwendet wurde, sehr nahe kommt.2

Es steht nach wie vor viel auf dem Spiel, wenn es um den Datenschutz geht: Der IBM Data Breach Kostenreport 2025 hat ergeben, dass die durchschnittlichen Kosten solcher Verstöße bei 4,4 Millionen USD liegen. (Solche Verstöße sind auch mit schwer zu quantifizierenden Kosten in Form von beschädigtem Vertrauen der Öffentlichkeit in die eigene Marke verbunden.)

Während viele dieser Datenschutzverletzungen die KI nicht direkt betreffen, ist dies jedoch immer öfter der Fall. Der Stanford AI Index Report 2025 ergab, dass die Zahl der KI-Datenschutz- und Sicherheitsvorfälle innerhalb eines Jahres um 56,4 % gestiegen ist, mit 233 gemeldeten Fällen im Jahr 2024.3

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Ein sich wandelndes regulatorisches Umfeld

Politische Entscheidungsträger auf der ganzen Welt haben erklärt, dass KI-Technologien keinesfalls von der Verantwortung für den grundlegenden Schutz der Privatsphäre ausgenommen werden sollten. Die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union, die seit langem als Grundlage für den Umgang mit personenbezogenen Daten gilt (unabhängig von der Gerichtsbarkeit), bezieht sich auf den Einsatz von KI-Systemen durch Unternehmen. Zu den Grundsätzen der DSGVO gehören Datenminimierung (das reine Erfassen der Daten, die unbedingt für einen Zweck benötigt werden), Transparenz (Information der Benutzer darüber, wie Daten verwendet werden) und Speicherbeschränkung (das Speichern von Daten, solange dies nötig ist).

Das Jahr 2024 war ein Meilenstein in diesem Bereich, als mehrere Aufsichtsbehörden begannen, Datenschutzgesetze in Fällen mit KI-Anwendungen durchzusetzen.

Beispielsweise verhängte die irische Datenschutzkommission im Jahr 2024 eine Geldstrafe von 310 Millionen Euro gegen das soziale Netzwerk LinkedIn wegen eines Verstoßes gegen die Datenschutzbestimmungen im Zusammenhang mit KI. LinkedIn erfasste bestimmte subtile Verhaltensweisen der Benutzer, beispielsweise wie lange sich eine Person auf einem Beitrag aufhielt. Anschließend nutzte die Website die KI, um Rückschlüsse auf diese Benutzer zu ziehen (z. B. ob sie aktiv nach neuen Jobs suchten oder ob bei ihnen ein hohes Burnout-Risiko bestand). Dieses Profiling wurde anschließend genutzt, um Werbung gezielt auszurichten und bestimmte interne LinkedIn-Ranking-Systeme zu aktualisieren.

Die irische Kommission entschied letztendlich, dass trotz des Anscheins einer scheinbaren Anonymisierung diese von der KI abgeleiteten Schlussfolgerungen letztlich auf die Daten identifizierbarer Personen zurückgeführt werden könnten, was gegen Datenschutzgesetze verstößt. Die Gerichte entschieden, dass LinkedIn das DSGVO-Prinzip der Zweckbegrenzung nicht respektiert und keine informierte Zustimmung der Benutzer einholt, wodurch die Privatsphäre der Verbraucher verletzt wurde. Das Urteil zwang LinkedIn außerdem dazu, Echtzeit-Einwilligungsmechanismen einzuführen und die Standardeinstellungen der Werbepersonalisierung zu überarbeiten.4

Ebenfalls im Jahr 2024 verdeutlichte eine Strafverfolgungsmaßnahme gegen das Gesichtserkennungsunternehmen Clearview AI den Grundsatz, dass biometrische Daten (wie z. B. Fotos von Gesichtern) weitere Datenschutzprobleme aufwerfen, selbst wenn die Daten technisch öffentlich zugänglich sind (z. B. auf einem ungesicherten Social-Media-Konto).

Clearview hatte 30 Milliarden Bilder von Seiten wie Facebook und Instagram gesammelt und argumentierte, dass das Unternehmen keine Erlaubnis der Benutzer benötigte, da die Fotos öffentlich online verfügbar seien. Diese massive Datenerfassung war dann der Grundstein für die Entwicklung einer KI-gestützten Gesichtserkennungsdatenbank durch Clearview.

Niederländische Strafverfolgungsbehörden kritisierten den Ansatz von Clearview. Die niederländische Datenschutzbehörde verhängte schließlich eine Geldstrafe von 30,5 Millionen Euro gegen das Unternehmen, da die individuellen Rechte der niederländischen Staatsbürger, die in der Datenerhebung von Clearview enthalten waren, verletzt wurden.5

Schließlich erweiterte die Europäische Union 2024 die KI-spezifische Regulierung mit ihrem KI-Gesetz, das im August desselben Jahres in Kraft trat. Der Anwendungsbereich des Gesetzes geht über KI-bezogene Daten hinaus und erstreckt sich auf die Risiken von KI und KI-Entwicklung im Allgemeinen. Viele seiner Bestimmungen betreffen jedoch die Datensicherheit, den Datenaustausch und die Data Governance. Um ein prominentes Beispiel zu nennen: Das Gesetz verbietet biometrische Identifizierungssysteme, die Daten und KI-Modelle verwenden, um Personen anhand von sensiblen Merkmalen wie Ethnie, Religion oder sexueller Orientierung zu identifizieren.

AI Academy

Vertrauen, Transparenz und Governance in der KI

KI-Vertrauen ist zweifelsohne das wichtigste Thema in der KI. Es ist verständlicherweise auch ein überwältigendes Thema. Wir werden uns mit Problemen wie Halluzinationen, Voreingenommenheit und Risiken auseinandersetzen und Schritte für eine ethische, verantwortungsvolle und faire Einführung von KI aufzeigen.

Prinzipien zur Minimierung des KI-Datenschutzrisikos

Welche Schritte könnten Unternehmen in dieser schnelllebigen Welt, in der die Notwendigkeit, Innovationen anzunehmen, scheinbar im Spannungsfeld mit der Notwendigkeit steht, dies verantwortungsbewusst zu tun, ergreifen, um dieses Gleichgewicht zu finden? Ganze Bücher können zu dem Thema geschrieben werden, aber ein paar Prinzipien können Unternehmen bei der verantwortungsvollen Implementierung von KI anleiten.

Verwaltung des gesamten KI-Datenlebenszyklus

Alte Paradigmen der Datensicherheit reichen nicht aus, wenn Daten in mehreren Phasen des Lebenszyklus eines KI-Modells aufgenommen, verarbeitet und produziert werden. Datenschutzbeauftragte, Compliance-Experten und andere Stakeholder sollten sich um die Integrität ihrer Trainingsdaten kümmern und idealerweise Audits zum Datenschutzrisiko durchführen. Eine Firma behauptet, 12.000 API-Schlüssel und Passwörter im Common Crawl-Datensatz gefunden zu haben.6

Und wenn es um die Nutzung von Big Data geht, die durch die Geschäftstätigkeit eines Unternehmens entstehen, können Standards wie die DSGVO und damit verbundene Datenschutzbestimmungen nützliche Leitlinien sein.

Der Branche einen Schritt voraus bleiben

Die KI ist ein sehr aktives Gebiet, auf dem fast täglich neue Forschungen und Entdeckungen gemacht werden. Für Cybersicherheitsexperten ist es wichtig, über die neuesten technologischen Fortschritte auf dem Laufenden zu bleiben, um Schwachstellen besser zu patchen, bevor ein Bedrohungsakteur sie ausnutzt.

Unternehmen können datenschutzfördernde Technologien wie föderiertes Lernen, differenzierten Datenschutz und synthetische Daten nutzen. Wie immer können sie auf starken Zugriffskontrollen bestehen, um unbefugten Zugriff durch Menschen und KI-Agenten gleichermaßen zu verhindern.

Datenschutzbewusste Entscheidungsfindung

Da immer mehr Unternehmen generative KI und andere KI-Technologien nutzen, um die Entscheidungsfindung zu automatisieren, sollten Führungskräfte bei KI-gestützten Praktiken, bei denen der Begriff „Daten“ möglicherweise unübersichtlich geworden ist, einen Blick auf den Datenschutz werfen. Dieses Prinzip zeigt sich im zuvor erwähnten LinkedIn-Urteil: In manchen Fällen kann das Ziehen von Schlüssen auf Basis von Datenmustern, auch wenn es einen Anschein von Anonymisierung zeigt, dennoch gegen die DSGVO und ähnliche Vorschriften verstoßen.

Da die KI beim Erkennen von Mustern immer leistungsfähiger wird, könnte sie lang gehegte Vorstellungen darüber, was „anonymisierte“ Daten sind, in Frage stellen. Eine Studie aus dem Jahr 2019 in Nature zeigte, dass mit dem richtigen generativen Modell „99,98 % der US-Amerikaner in jedem Datensatz anhand von 15 demografischen Merkmalen korrekt wiedererkannt werden könnten“. Die Ergebnisse deuten darauf hin, dass sich die Vorstellung davon, was personenbezogene Daten sind, einer Transformation unterzieht.7

Autor

David Zax

Staff Writer

IBM Think

Weiterführende Lösungen
IBM watsonx.governance

Verwalten Sie generative KI-Modelle ortsunabhängig und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.

Entdecken sie watsonx.governance
KI-Governance-Lösungen

Erfahren Sie, wie KI-Governance dazu beitragen kann, das Vertrauen Ihrer Mitarbeiter in KI zu stärken, die Akzeptanz und Innovation zu beschleunigen und das Vertrauen Ihrer Kunden zu verbessern.

Entdecken Sie KI-Governance-Lösungen
Beratungsleistungen zur KI-Governance

Bereiten Sie sich auf die EU-Verordnung über künstliche Intelligenz vor und etablieren Sie mithilfe von IBM® Consulting einen verantwortungsvollen KI-Governance-Ansatz.

KI-Governance-Dienste entdecken
Machen Sie den nächsten Schritt

Steuern, verwalten und überwachen Sie Ihre KI mit einem einzigen Portfolio, um verantwortungsvolle, transparente und erklärbare KI voranzubringen.

watsonx.governance erkunden Buchen Sie eine Live-Demo