Wir sind überall von KI-Agenten umgeben. Diese Systeme führen Aufgaben autonom mit begrenztem menschlichem Eingreifen aus, oft auf eine Art, die wir kaum bemerken.
Nehmen wir autonome Fahrzeuge als Beispiel: Sie erfassen ihre Umgebung, bewerten den Kontext und treffen in Echtzeit Entscheidungen im Bruchteil einer Sekunde. Sie navigieren nicht, weil jemand jedes mögliche Szenario fest einprogrammiert hat, sondern weil sie kontinuierlich Signale interpretieren und sich an die sich verändernde Umgebung anpassen.
Stellen Sie sich nun vor, Sie würden dieselbe Intelligenz auf ein unternehmensweites Datenprogramm anwenden. Tausende von Datensätzen. Millionen von Datensätzen. Es werden Milliarden von datengestützten Entscheidungen getroffen.
Agentische Datenverwaltung (ADM) ermöglicht dieses Maß an Orchestrierung. Durch die Entscheidungsfindungsfunktionen KI-gestützter Agenten beginnen Unternehmen, die Art und Weise, wie sie ihre Daten verarbeiten, verwalten und nutzen, neu zu erfinden.
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Das agentische Datenverwaltung nutzt KI-Agenten, um das gesamte Unternehmensdatenprogramm zu koordinieren und zu optimieren.1 Dazu gehören:
Anstatt sich auf starre Workflows zu verlassen, nutzt ADM spezialisierte Agenten, um jede Phase des Datenlebenszyklus mit Intelligenz auszustatten. Das System kann Absichten interpretieren, feststellen, welche Daten und Richtlinien relevant sind, und die Abläufe automatisch an veränderte Bedingungen anpassen.
Viele dieser Funktionen werden durch Large Language Models (LLMs) ermöglicht, die die Argumentationsschicht innerhalb der Agenten bereitstellen. LLMs nutzen die Verarbeitung natürlicher Sprache, um die Absicht zu interpretieren und sie in eine koordinierte Datenstrategie zu übersetzen – ähnlich wie Tools wie ChatGPT oder Google Gemini Prompts interpretieren. Sie greifen auf Metadaten, Datenabstammung, maschinelles Lernen und Business Rules zurück, um zu bestimmen, welche Daten relevant sind, wie sie validiert und gesteuert werden sollten und wie sie für nachgelagerte Analysen vorbereitet werden sollten.
Anschließend beschreibt das agentische System die erforderlichen Schritte zur Erfüllung der Datenaufgabe. Dies kann den Zugriff auf Quellen, die Durchsetzung von Richtlinien, die Optimierung der Workloads, die Verwaltung des Speicherverhaltens und letztendlich die Erstellung einer vertrauenswürdigen Ausgabe umfassen.
Agentische Datenverwaltung unterscheidet sich von traditioneller Datenverwaltung dadurch, dass sie selbstadaptiv ist und sich kontextbezogen weiterentwickelt. Sie lernt kontinuierlich aus Signalen und passt sich an veränderte Bedingungen an, anstatt Workflows als statisches Artefakt zu behandeln.
Ein Supplier Chain Manager könnte beispielsweise die Anweisung geben: „Eingehende Daten überwachen und doppelte Datensätze beseitigen, sobald sie auftreten.“ Sobald neue Aufträge eingehen, interpretiert das KI-gestützte System die Absicht und passt seinen Plan in Echtzeit an, indem es Datensätze zusammenführt, Unstimmigkeiten kennzeichnet und Aufgaben an Agenten delegiert, wenn sich die Bedingungen ändern.
Obwohl es sich noch um einen relativ neuen Ansatz handelt, nutzen Unternehmen ADM bereits, um ihre Datenzuverlässigkeit und betriebliche Effizienz durch Folgendes zu verbessern:
Unternehmen generieren mehr Daten auf mehr Systemen als je zuvor. Doch mit steigenden Datenmengen und zunehmend hybriden und verteilten Architekturen haben viele Unternehmen immer noch Schwierigkeiten, diese komplexen Daten in zuverlässige Erkenntnisse in Echtzeit umzuwandeln. Tatsächlich geben 76 % der Unternehmen zu, dass sie Entscheidungen getroffen haben, ohne Daten zu konsultieren, weil der Zugriff auf diese Daten zu schwierig war.
Traditionelle Datenverwaltungsansätze basieren stark auf manuellen Eingriffen von Menschen, wodurch sie sich nur langsam anpassen können, wenn sich Schemata ändern, Metriken weiterentwickeln oder sich die Betriebslogik verschiebt. Agentische Datenverwaltung gewinnt an Bedeutung, weil sie mehrere systemische Herausforderungen angeht, mit denen Altlast-Ansätze nicht mithalten können:
Hybrid Cloud, Multicloud und Data Warehouses schaffen Abhängigkeitsketten, die schwer aufrechtzuerhalten sind. Manuelle Prozesse haben Schwierigkeiten zu skalieren, wenn Datensätze und Programmierschnittstellen (APIs) sich täglich weiterentwickeln.
Schlechte Datenqualität hat ihren Preis: falsche KPIs, fehlerhaftes Forecasting und veraltete Kundendaten, die sich auf nachgelagerte Systeme auswirken. Die Risiken verstärken sich, insbesondere in stark regulierten Branchen wie dem Finanzdienstleistungssektor und dem Gesundheitswesen.
Heutige Unternehmen arbeiten mit Echtzeitanalyse- und KI-Systemen, die genaue Echtzeitdaten benötigen, um die Erwartungen zu erfüllen. Wenn Pipelines ins Stocken geraten oder stillschweigend ausfallen, baut sich Latenz auf, die Entscheidungsfindung verlangsamt sich und die operative Effizienz leidet.
Da die Nachfrage nach Daten explosionsartig steigt, haben zentralisierte Datenteams, die immer noch auf manuelle Integration und Bereitstellung angewiesen sind, Schwierigkeiten, mitzuhalten, was die Entscheidungsfindung im gesamten Unternehmen zunehmend verlangsamt.
Wenn die Datenüberwachung größtenteils manuell erfolgt, tauchen Probleme in der Regel erst auf, wenn nachgelagerte Prozesse betroffen sind, was Datenteams dazu zwingt, unverhältnismäßig viel Zeit mit reaktivem Debugging zu verbringen, anstatt mit höherwertiger Arbeit.
Moderne Datenprogramme stehen zudem vor strukturellen Datenherausforderungen, die sich mit manuellen Ansätzen nicht beheben lassen. Mehr als 50 % der Unternehmen setzen auf drei oder mehr Datenintegrationstools, was zu fragmentierten Workflows und inkonsistenter Logik zwischen den Teams führt. Diese Fragmentierung zieht weitreichendere Probleme nach sich: Qualitätskontrollen erfolgen zu spät, Governance-Regeln driften systemübergreifend ab, Abstammungsbrüche bleiben unentdeckt und semantische Definitionen geraten aus dem Takt. Tatsächlich verfügen 77 % der Unternehmen nicht über die nötigen Fachkräfte, um mit einer solchen Komplexität umzugehen.
Dieser Druck wirkt sich direkt auf Datenteams aus. Ingenieure verbringen 10–30 % ihrer Zeit damit, Datenprobleme aufzudecken, und weitere 10–30 % damit, diese zu beheben – das sind über 770 Stunden pro Jahr und Ingenieur bzw. mehr als 40.000 US-Dollar an verschwendeter Arbeitskraft. Währenddessen warten Analysten und Geschäftsanwender durchschnittlich 1–4 Wochen auf die benötigten Daten, weil Integrationsaufgaben isoliert oder ins Stocken geraten sind.
Die agentische Datenverwaltung stellt einen Wandel in der Art und Weise dar, wie Unternehmen Datengenauigkeit, -qualität und -integrität in großem Maßstab sicherstellen. Anstatt jede Transformation per Skript zu programmieren oder starre Regeln einzuhalten, können Unternehmen KI-Agenten einsetzen, um die Erstellung von Pipelines zu skalieren, Datenprozesse zu optimieren, Engpässe zu verringern und die Datenqualität mit deutlich weniger manuellen Eingriffen aufrechtzuerhalten. Durch effizientere Abläufe und vertrauenswürdige Daten über den gesamten Lebenszyklus hinweg können sich Datenteams auf die Strategie konzentrieren, anstatt Nacharbeiten zu leisten.
Die agentische Datenverwaltung vereint vier Kernkomponenten, die jeweils durch eine koordinierte Schicht aus KI-Modellen, Agenten und semantischen Technologien ermöglicht werden:
Wenn ein Benutzer einen Prompt oder Anfrage stellt, verwendet ein Agent seine Analysefunktionen, um die Absicht zu interpretieren. Es wird ein Plan entwickelt, der die erforderlichen Datenbestände, Governance-Regeln, semantischen Überlegungen, Validierungen und operativen Schritte umreißt. Andere Agenten bewerten diesen Plan dann aus ihren jeweiligen Domains heraus – sie bestätigen die notwendigen Modelle, Business Rules, Abstammung, Abhängigkeiten und Katalogmetadaten, bevor Maßnahmen ergriffen werden.
Durch diese Orchestrierung wird der Bedarf an manueller Verknüpfung von Prozessen über den gesamten Datenlebenszyklus hinweg erheblich reduziert, wodurch die Zeit bis zur Datenanalyse verkürzt und die Datenabläufe an den Geschäftszielen ausgerichtet werden. Agenten können auch Unklarheiten aufdecken und Annahmen validieren, indem sie Daten, Strategien und Governance-Richtlinien direkt in den vorgeschlagenen Plan einbeziehen.
Anschließend führt der KI-Agent die im Plan festgelegten Arbeiten aus. Sie greifen systemübergreifend auf Daten zu und interpretieren diese, wenden Governance- und Qualitätsprüfungen an, verwalten das Speicherverhalten, führen Datenverarbeitungsschritte aus und bereiten die Ausgabe für die nachgelagerte Verwendung vor. Agenten können außerdem Kosten oder Latenz optimieren, den Betrieb bei Systemausfällen anpassen und Abhängigkeiten im gesamten Datenökosystem abbilden.
Da so viele Komponenten in Bewegung sind, trägt KI-Agent dazu bei, dass Datenabläufe auch bei sich ändernden Schemata oder Workload-Verschiebungen zuverlässig bleibt. Sie reduzieren sich wiederholende, zeitaufwändige Aufgaben im gesamten Datenlebenszyklus und verbessern die Skalierbarkeit für Unternehmensdateninitiativen.
Traditionelle Metadatensysteme beschreiben die Struktur, indem sie Felder, Formate und Schema-Definitionen erfassen. Im Gegensatz dazu können Vektordatenbanken als eine semantische Schicht fungieren und Bedeutung erfassen, indem sie darstellen, wie Datenelemente miteinander in Beziehung stehen und in welchem Kontext sie verwendet werden. Das eine verdeutlicht die Form, das andere ihre Textur.
Vektordatenbanken speichern Einbettungen, die Metriken, Datensätze und Geschäftsbegriffe als mathematische Vektoren darstellen. Dies ermöglicht es agentenbasierten Systemen, Ähnlichkeiten zu messen, semantische Beziehungen aufzudecken und Bedeutungsverschiebungen zu erkennen – selbst wenn das Schema gleich bleibt.
Die semantische Schicht ermöglicht:
Eine effektive Governance ist die Grundlage für die agentische Datenverwaltung. Anstatt sich auf manuelle Reviews zu verlassen, wenden diese Systeme kontinuierlich Richtlinien-, Qualitäts- und Sicherheitskontrollen an, während die Daten ihren gesamten Lebenszyklus durchlaufen. Während der Ausführung werden Validierungsregeln und Integritätssicherungen durchgesetzt, um sicherzustellen, dass Ausgaben im gesamten Datenökosystem des Unternehmens korrekt und vertrauenswürdig bleiben.
Einige Unternehmen stellen sogar leichte „Guardian“-Agenten bereit – kleine Überwachungsagenten, die das Verhalten und den Zustand der Pipeline in Echtzeit überwachen. So können sie die Observability gewährleisten und Probleme aufdecken, bevor diese nachgelagerte Workflows beeinträchtigen. Diese zusätzliche Überwachung trägt dazu bei, dass automatisierte Pipelines schnell und zuverlässig sind und den Standards der Unternehmens-Datenverwaltung entsprechen.
Diese Komponenten fügen sich zu einem Workflow mit geschlossenem Kreislauf zusammen, der menschliche Absichten, LLM-basierte Planung, KI-gestützte Ausführung und kontinuierliche Validierung miteinander verbindet. Eine typische Interaktion kann so aussehen:
Obwohl sie oft als konkurrierende Ansätze dargestellt werden, ergänzt die agentische Datenverwaltung das Stammdatenmanagement (MDM) tatsächlich, indem sie es dynamischer gestaltet.
MDM definiert Unternehmensentitäten, legt Governance-Regeln fest und gewährleistet die Konsistenz über alle Datensätze hinweg. Es trägt dazu bei, eine „Golden Record“ zu schaffen – eine Single-Souce-of-Truth, die Daten aus verschiedenen Quellen zusammenführt –, sodass alle Mitarbeiter des Unternehmens mit denselben Informationen arbeiten.
ADM operationalisiert diese Grundlagen, indem es sie als Daten validiert, sie im gesamten Datenprogramm anwendet und sich an veränderte Bedingungen anpasst.
Die beiden Ansätze unterscheiden sich in mehreren wichtigen Punkten:
MDM aktualisiert Definitionen durch festgelegte Prozesse und regelmäßige Überprüfungszyklen. ADM erkennt Änderungen in Echtzeit, z. B. Schema-Aktualisierungen und neu definierte Metriken-Parameter, und kalibriert sich neu, um die nachgelagerten Systeme auf dem gleichen Stand zu halten.
MDM erstellt verbindliche Datensätze in kuratierten Bereichen wie Kunden, Lieferanten und Produkten. ADM weitet diese Verantwortung auf das gesamte Datenökosystem aus und stellt sicher, dass diese Definitionen in den operativen Systemen sowie in den Anwendungs- und Analyseumgebungen konsistent bleiben.
MDM verwaltet ruhende Daten und optimiert Datensätze durch Abgleich, Bereinigung und Standardisierung. ADM verwaltet Daten in Bewegung und wendet Leitplanken, Abstammungsprüfungen und semantische Validierung an, während die Daten durch das Unternehmen fließen.
MDM basiert auf Regeln und menschlicher Aufsicht: Datenverantwortliche erstellen Zuordnungen, überprüfen Ausnahmen und aktualisieren Prozesse. ADM nutzt absichtsgesteuerte Orchestrierung: Intelligente Agenten interpretieren Geschäftsziele, generieren einen Plan und führen den Workflow autonom aus und validieren ihn.
MDM passt sich im Tempo des Prozesses an und spiegelt Änderungen erst nach Abschluss des Governance-Workflows wider. ADM passt sich im Tempo des Wandels an und justiert Logik und Pipeline-Verhalten dynamisch, wenn sich Definitionen, Datensätze und Geschäftsbedingungen weiterentwickeln.
Im Zeitalter nahtloser Echtzeit-Geschäfte wandelt sich die Datenverwaltung von starren, regelbasierten Workflows hin zu adaptivem, absichtsgesteuertem Verhalten. Die Forschungsergebnisse von IBM in den Bereichen KI, Datenbereitschaft und Betriebsmodelle deuten auf drei wesentliche Veränderungen hin, die diese neue Landschaft der Datenverwaltung prägen.
Agentische KI führt Workflows über statische Skripte hinaus zu einem anpassungsfähigen, kontextbezogenen Verhalten. Pipelines reagieren auf Änderungen der Metadaten, Business Rules, der Betriebslast und der Governance-Vorgaben – sie ändern ihren Ausführungspfad, anstatt abzubrechen, wenn sich die Bedingungen ändern.
In diesen agentischen Architekturen ersetzen Multiagentensysteme monolithische Plattformen: Spezialisierte Agenten kümmern sich um die Erfassung, Qualität, Abstammung oder Optimierung, während ein übergeordneter Agent die Übereinstimmung mit den Vorgaben und Richtlinien sicherstellt.
KI-fähige Daten hängen nicht nur von der Schemagenauigkeit ab, sondern auch von der semantischen Konsistenz. Die heutigen Probleme mit der Datenqualität lassen sich oft auf Schema-Drift zurückführen, die von morgen werden jedoch auf semantische Drift zurückzuführen sein: auf geschäftliche Bedeutungen, die sich ohne strukturelle Veränderungen weiterentwickeln. Wenn sich die Kundensegmente verschieben oder sich die Produkthierarchien weiterentwickeln, müssen agentische Systeme nicht nur Unstimmigkeiten im Format, sondern auch in der Bedeutung erkennen.
Semantisches Gedächtnis, Vektorverständnis und kontextsensitive Validierung werden immer wichtiger für die Aufrechterhaltung vertrauenswürdiger KI-fähiger Daten.
Mit zunehmender Reife agentischer Betriebsmodelle verlagern Data Engineers ihren Fokus von der manuellen Codierung und Transformation hin zur Überwachung autonomer Systeme. Das bedeutet, Leitplanken zu entwerfen, Entscheidungen von Agenten zu überprüfen und neuartige Edge-Fälle zu lösen, sobald sie auftreten.
Durch diese Verlagerung wird Erklärbarkeit zum Kernbestandteil des Modells: Nachvollziehbarkeit der Schlussfolgerungen, überprüfbare Protokolle und Kontrollpunkte mit der Einbindung von Menschen werden für Vertrauen und Compliance erforderlich.
Erstellen und verwalten Sie intelligente Streaming-Datenpipelines über eine intuitive grafische Benutzeroberfläche, die eine nahtlose Datenintegration in Hybrid- und Multicloud-Umgebungen ermöglicht.
Watsonx.data ermöglicht es Ihnen, Analysen und KI mit all Ihren Daten zu skalieren, unabhängig davon, wo sie sich befinden, und zwar über einen offenen, hybriden und kontrollierten Datenspeicher.
Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting® und bauen Sie ein erkenntnisgesteuertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.
1 „Can AI Autonomously Build, Operate and Use the Entire Data Stack?“ IBM Research, 8. Dezember 2025