Jedes Unternehmen braucht Problemlöser. Ich spreche von unabhängigen Betreibern, die die Art von Bevormundung verachten, unter der ineffiziente Unternehmen leiden, und die selbstbewusst genug sind, zwischen den Zeilen zu lesen. Wenn Software diese Art von Intelligenz zeigt, sagen wir: „Sie funktioniert einfach.“ Bei einer Mitarbeiterin sagen wir: „Sie versteht es einfach.“
Dann gibt es noch das andere Extrem, das durch Aufschübe, Verzögerungen und Unentschlossenheit gekennzeichnet ist. Oft einen Schritt hinterher oder aufgrund veralteter Informationen handelnd, bringen diese Nörgler alles zum Stillstand und provozieren regelmäßig einen der frustrierendsten Sätze im Büroalltag: „Ich mache das einfach selbst.“
Millionen von KI-Agenten – und das wissen Sie zweifellos, wenn Sie diesen Blog lesen – werden in den nächsten Jahren gebaut und bereitgestellt. Laut dem IBM Institute for Business Value geben 70 % der befragten Führungskräfte an, dass agentische KI für ihre zukünftige Strategie kritisch, ja entscheidend ist. Die Frage ist, welche Art von Akteuren bringen Sie ins Spiel – Problemlöser oder Problemverursacher?
Der Unterschied zwischen den beiden liegt in einem vertrauten Feind: Silos. Es ist zu verlockend, während der idealen Bedingungen der Pilotphase eine optimistische Tendenz zu bestätigen. Wenn es dann Zeit für die Primetime ist, also für die unternehmensweite Bereitstellung, behindern die Komplexitäten eines großen Unternehmens den Fortschritt. Verworrene Workflows, uneinheitliche Governance und inkonsistenter Datenzugriff machen jeden Agenten zu einem einmaligen Wartungsproblem. Was eigentlich die Produktivität steigern sollte, wird zu einem großen Produktivitätsverlust. Nennen wir es KI-Ironie.
Um skalierbar zu sein, müssen Unternehmen alle ihre Agenten ganzheitlich orchestrieren und so ein Netzwerk von einheitlich gesteuerten KI-Mitarbeitern schaffen, die sich problemlos in bestehende Tools integrieren lassen. Wenn die Orchestrierung funktioniert, werden Prozesse aufeinander abgestimmt, Silos aufgelöst und das KI-Potenzial in reale Ergebnisse umgewandelt. Dennoch wird die Orchestrierung allein das Rennen um die KI nicht gewinnen. Daten sind das Unterscheidungsmerkmal. Sie sind die Kraft, die Ihre Agenten – alle, nicht nur die POC-Testfälle – mit Ihrem Geschäft vertraut und vertrauenswürdig genug machen, um autonom zu handeln.
Denn generische Daten führen letztendlich zu generischer KI, die denselben monotonen Tonfall spricht wie Ihre Konkurrenten. Oder schlimmer noch: Schlecht verwaltete Daten können KI zu einer Belastung machen, die Fehler schneller und weiter verbreitet, als es ein Mensch jemals könnte.
Es hat zu lange gedauert, bis der Markt die Bedeutung der Datenaufbereitung für KI erkannt hat. Diese Versäumnis hat dazu geführt, dass der ROI noch nicht feststeht, was sich in einer Reihe von Statistiken widerspiegelt, die zeigen, dass die meisten Unternehmen noch immer in der Pilotphase stecken. Tatsächlich haben laut einem Bericht des MIT nur 5 % der befragten Unternehmen KI-Tools in großem Maßstab in ihren Workflow integriert.
Derzeit findet eine große Korrektur statt, da Unternehmen Milliarden in ihre Dateninitiativen investieren. Laut demnächst erscheinenden Umfragedaten des IBM Institute of Business Value wurden 2025 etwa 13–% der IT-Budgets für die Strategie bereitgestellt, gegenüber 4 % im Jahr 2022. Ebenso berichten 82 % der befragten Chief Data Officers, dass sie Mitarbeiter für Positionen einstellen, die es letztes Jahr noch nicht gab.
Das Ziel ist natürlich, Ihre KI mit jenen firmeneigenen, vertrauenswürdigen Daten auszustatten, die Ihr Unternehmen einzigartig machen. Wenn Sie oder Ihre Kunden Ihre KI prompten, sollte diese kontextbezogene Informationen zurückgeben, die mit den Zielen, Werten und regulatorischen Verpflichtungen Ihres Unternehmens im Einklang stehen. Agentische KI erhöht den Einsatz noch weiter. Wenn Sie einen Agenten in Gang setzen und ihn befähigen, Entscheidungen zu treffen und explizite Ziele zu verfolgen, müssen Sie darauf vertrauen, dass er Ihr Unternehmen und dessen Kultur – Ihre Daten – in- und auswendig kennt.
Damit Agenten erfolgreich sein können, benötigen sie hochwertige Daten – laut The Data Management Association handelt es sich dabei um Daten, die genau, vollständig, konsistent, aktuell, eindeutig und gültig sind. IBM fügt eine siebte Dimension der Datenqualität hinzu, die Homogenität, ein Qualitätsmaß, das sicherstellt, dass vielfältige Daten für eine konsistente Interpretation harmonisiert und für semantisches Verständnis angereichert werden können.
Die Aufrechterhaltung der Datenqualität ist nicht einfach, insbesondere im Zeitalter der Zettabytes. Manuelle Qualitätssicherungen sind zeitaufwändig, fehleranfällig und erfordern eine Reihe von Datenexperten, die angesichts des anhaltenden Talentmangels einfach nicht vorhanden sind.
Unternehmen haben versucht, diese Lücke zu schließen, indem sie wackelige Daten-Stacks aus Data Warehouses, Data Lakes und Integrations-Tools aufgebaut haben, die schnell zusammenbrechen. Patches, Dashboards und Skripte sorgen für noch mehr Aufblähung. Der Ad-hoc-Ansatz führt allzu oft zu technischen Schulden, die sich ständig und unvorhersehbar anhäufen. Innovationen geraten in den Hintergrund, wenn Ihre IT-Mitarbeiter nur mit Wartungsarbeiten beschäftigt sind und ihre Produktivität in den Lücken Ihrer Dateninfrastruktur versickern lassen.
Wie geht es nun weiter?
Die Antwort beginnt mit einer Datenschicht, die alle Ihre Datenquellen verbindet, anreichert und verwaltet und als Quelle für KI-Agenten dient, die den Kontext und die Sprache Ihres Unternehmens kennen. Auf dieser Grundlage treffen Agenten Entscheidungen, denen Sie vertrauen können – sie beschleunigen Workflows, reduzieren Risiken und steigern die Produktivität in großem Maßstab.
Metadaten sind die Sprache dieser Schicht. Es liefert den Kontext, der Ihre Daten für KI oder traditionellere Workloads wie Analyse und Data Engineering leicht nutzbar macht. Die manuelle Klassifizierung ist jedoch nicht skalierbar. Automatisches Tagging schon, weil es die Struktur mit der Geschwindigkeit der Aufnahme anwendet. Es erfasst Abstammung, Sensibilität und geschäftliche Bedeutung – bei Bedarf mit menschlicher Aufsicht –, um Risiken zu reduzieren und nachgelagerte Aufgaben wie Datenabruf und Compliance zu beschleunigen. Kurz gesagt, es wandelt Rohdaten in strukturiertes, kontextbezogenes Wissen um, noch bevor jemand danach fragt.
Der Kontext ist entscheidend. Letztendlich führt dies zu einer präziseren KI und einer sichereren Entscheidungsfindung. Daten ohne die richtigen Berechtigungen sind jedoch eine Belastung und kein Asset.
Zugriffsregeln sollten nicht in Tabellen enthalten sein. Sie sollten mit den Daten reisen. Wenn Assets von einem Dokumentenspeicher zu einem Lakehouse zu einer Feinabstimmungsaufgabe verschoben werden, sollten auch die Berechtigungen verschoben werden. Wenn Richtlinien auf der Grundlage von Identität, Rolle und Zweck angewendet werden, sehen die richtigen Personen die richtigen Daten zur richtigen Zeit. Dieser Prozess reduziert das Risiko, verhindert versehentliche Exposition und verhindert, dass die Einhaltung der Vorschriften zur Brandübung wird.
Eine starke Governance ist unerlässlich, aber sie ist nur ein Teil der Gleichung. Die darunterliegende Architektur entscheidet darüber, ob die Kontrolle skaliert oder stagniert. Open und Hybrid by Design ist der richtige Ansatz, da die meisten Unternehmen bereits mehrere Cloud- und On-Prem-Umgebungen nutzen. Durch die Trennung von Speicher und Rechenleistung werden kostspielige Migrationen und die dadurch verursachten Störungen vermieden. Offene Dateiformate wie Apache Iceberg ermöglichen dies, indem sie Anwendungen vom Speicher entkoppeln und Tools Daten an Ort und Stelle lesen und schreiben lassen – wo auch immer sie sich befinden. Sie verhindern außerdem die Abhängigkeit von der Datenbank eines einzelnen Anbieters. Flexibilität ist kein Luxus – sie ist ein Schutz gegen überschüssige Kosten und starre Systeme, die sich nicht anpassen können, wenn sich Prioritäten verschieben. Kein Wunder also, dass drei Viertel der Unternehmen laut einer Studie von McKinsey erwarten, in den nächsten Jahren verstärkt auf Open-Source-KI-Technologien – einschließlich offener Dateiformate – zu setzen, da dies mit geringeren Implementierungs- und Wartungskosten verbunden ist.
Unstrukturierte Daten sind nach wie vor das große ungenutzte Reservoir. Rechnungen, E-Mails, Protokolle, Bilder – sogar dieser Blog – enthalten Erkenntnisse, die es hoffentlich selten in die Analyse schaffen, weil sie über verschiedene Systeme verstreut sind, in inkompatiblen Formaten vorliegen und keine ordentlichen Bezeichnungen haben. Manuelle Extraktion ist keine Option. Sie erfordert stundenlangen menschlichen Einsatz, birgt die Gefahr von Fehlern und bricht unter der Last von Unternehmensdaten zusammen. Automatisierung ist die einzige Möglichkeit, auf Unternehmensebene Ordnung zu schaffen: Entitäten identifizieren, Werte erfassen und Semantiken schichten, die widerspiegeln, wie Ihr Unternehmen tatsächlich spricht und wie es sich auf dem Markt präsentieren möchte. Daraus ergibt sich ein Schema, das Maschinen verarbeiten können und dem Menschen – und KI-Agenten – vertrauen können.
Wenn diese angereicherten Daten in eine Abfrageschicht einfließen, die Text-zu-SQL, Vektorabfragen und hybride Abfragen miteinander verbindet, hören die Agenten auf zu raten. Sie beginnen, mit Selbstvertrauen zu argumentieren und zu handeln. Traditionelle RAG-Systeme hingegen haben oft Schwierigkeiten, den Kontext zu verstehen, wodurch sie für die Argumentation im Unternehmensmaßstab ungeeignet sind. Ein einheitlicher Ansatz vermeidet diese Fallstricke und gibt den Akteuren die nötige Tiefe und Präzision, um entschlossen handeln zu können.
Unstrukturiertes Chaos in strukturierte Klarheit zu verwandeln ist ein Anfang, aber Intelligenz macht diese Klarheit nützlich. Ohne sie bleiben selbst die am besten organisierten Daten nutzlos. Data Intelligence verleiht jedem Asset eine Geschichte – woher es kommt, wie es sich verändert hat und wer dafür verantwortlich ist. Katalogisierung und Abstammungsverfolgung sind nicht nur Verwaltungsaufgaben; sie sind die Grundlage für Vertrauen. Die Qualitätsbewertung stellt sicher, dass die Agenten nicht auf wackeligen Beinen stehen. Die Veröffentlichung von Datenprodukten mit klar definierten Begriffen verwandelt Ressourcen in konsumierbare Dienste, auf die sich Teams verlassen können. Wenn ein Agent eine Zahl nennt, sollte die Quelle mit einem Klick erreichbar sein. Wenn sich eine Definition ändert, sollte jedes abhängige System Bescheid wissen, bevor die nächste Entscheidung getroffen wird.
Aber Intelligenz allein reicht nicht aus. Laut dem Bericht „KI in Aktion 2024” von IBM ist die Komplexität der Daten – einschließlich der Integration über fragmentierte Systeme hinweg – nach wie vor eines der größten Hindernisse für die Skalierung von KI. Agenten und andere Systeme, die auf Daten angewiesen sind, benötigen eine kontinuierliche Integration und keine einmalige Lösung. Integration ist der Prozess, durch den Daten in Bewegung gebracht werden: standardisiert, angereichert, verwaltet und für die Verwendung bereitgestellt, während sie fließen. Pipelines sollten sich bei jeder Ausführung anpassen, aus der Abweichung lernen und die Leistung, Kosten und Qualität optimieren. Observability ist auch wichtig. Wenn die Integration sichtbar und reaktionsschnell ist, erben nachgelagerte Systeme – einschließlich Agenten – keine stillen Fehler oder veraltete Logik.
Wenn Integration und Intelligenz zusammenarbeiten, fühlt sich das Ergebnis vertraut an: Es funktioniert einfach. Nicht etwa aus Glück, sondern weil die zugrundeliegende Architektur bewusst gestaltet ist. Eine Datenschicht, die Ihr Vermögen verbindet, Bedeutung zuweist und Governance bei jedem Schritt – ob agentenbezogen oder anderweitig – durchführt, erhöht die Genauigkeit und fördert eine sichere Entscheidungsfindung. So machen Sie aus einer vielversprechenden Demo ein zuverlässiges System. So gelangen Sie von Pilotprojekten zur Produktion, ohne den Überblick zu verlieren.
1. Von KI-Projekten zu Gewinnen: Wie agentische KI finanzielle Erträge sichern kann, IBM Institute for Business Value, 9. Juni 2025.
2. Die Kluft der generativen KI: Der Stand der KI in der Wirtschaft im Jahr 2025, MIT Nanda, Juli 2025
3. Der KI-Multiplikatoreffekt: Beschleunigtes Wachstum durch entscheidungsrelevante Daten, IBM Institute for Business Value, Dezember 2025
4. Die sechs primären Dimensionen für die Datenqualitätsbewertung, DAMA Vereinigtes Königreich, Oktober 2013.
5. Datenqualitätsdimensionen, IBM, 17. Oktober 2025.
6. Open-Source-Technologie im Zeitalter der KI, McKinsey & Company, die Mozilla Foundation und die Patrick J. McGovern Foundation, April 2025.
7. KI in Aktion 2024, IBM, 2024.