Unternehmen erfassen Daten von verschiedenen Plattformen und Geräten schneller als je zuvor. Durch herausragende Rechenkapazität, bessere Algorithmen und günstige Speicherlösungen können Daten heute so innovativ genutzt werden wie nie zuvor.
Eine gewinnbringende Nutzung von Daten ist für viele Unternehmen aber immer noch eine Herausforderung. Die zunehmende Datenflut und ein steigendes Datenvolumen, unterschiedliche Ökosysteme und eine Vielzahl bestehender Managementsysteme verhindern eine optimale Datennutzung. Studien zufolge werden bis zu 68%¹ der Daten in den meisten Unternehmen nicht analysiert und bis zu 82%² der Unternehmen werden durch Datensilos blockiert.
Um vollständig datengesteuert arbeiten zu können, benötigen Unternehmen eine integrierte Datenstrategie und -architektur, die die Herausforderungen der Datenkomplexität meistert.
Data Fabric ist ein Architekturansatz, der den Datenzugriff im Unternehmen und somit eine Self-Service-Datennutzung erleichtert. Diese Architektur ist unabhängig von Datenumgebungen, Prozessen, Dienstprogrammen und geografischen Gegebenheiten und bietet gleichzeitig durchgängige Funktionalitäten für das Datenmanagement. Data Fabric automatisiert die Datenerkennung, -verwaltung und -nutzung und ermöglicht es Unternehmen, Daten zur Optimierung ihrer Wertschöpfungskette zu nutzen. Mit Data Fabric können Unternehmen den Wert ihrer Daten steigern, indem sie die richtigen Daten zur richtigen Zeit und unabhängig von ihrem Speicherort bereitstellen.
Im Gartner Magic Quadrant For Data Quality Solutions 2021 erfahren Sie mehr darüber
Eine Abstraktionsebene, die die Daten nach geschäftlichen Kriterien beleuchtet und die Umsetzung von Erkenntnissen durch Automatisierung ermöglicht
Eine Reihe von Integrationsvorlagen für Extraktion, Aufnahme, Streaming, Virtualisierung und Transformation von Daten auf der Grundlage von Datenrichtlinien, um die Leistung zu maximieren und zugleich Speicherkapazitäten und Kosten einzusparen
Ein Marktplatz, der eine Self-Service-Datennutzung unterstützt und den Benutzern die Möglichkeit bietet, zusammenzuarbeiten und hochwertige Daten abzurufen
End-to-End-Lebenszyklusmanagement zum Erstellen, Entwickeln, Testen und Bereitstellen der verschiedenen Funktionalitäten einer Data-Fabric-Architektur
Einheitliche Definition und Umsetzung von Datenrichtlinien, Datengovernance und Datenverantwortlichkeit stärken die Datenpipeline im Unternehmen
Eine zusammensetzbare Architektur unter Anwendung von KI für Hybrid-Cloud-Umgebungen
Eine intelligente Integration und die Vereinheitlichung in Hybrid und Multi-Cloud-Umgebungen liefern zuverlässige Daten und verkürzen die Zeit bis zur Wertschöpfung.
Automatisierung sowie automatische und einheitliche Umsetzung von Richtlinien und Regeln in jeder Cloud – bei höherer Transparenz, besserer Zusammenarbeit und geringeren Compliance-Risiken.
Konsolidieren Sie Datenverwaltungstools und minimieren Sie das Duplizieren von Daten. Dies ermöglicht einen schnelleren Zugriff auf hochwertigere, vollständigere Daten, die bessere Erkenntnisse liefern.
IBM Cloud Pak for Data liefert eine Data-Fabric-Lösung für schnellere und zuverlässige KI-Ergebnisse, die die richtigen Daten zum richtigen Zeitpunkt und überall den richtigen Mitarbeitern zur Verfügung stellt. Sie bietet eine einheitliche Plattform für Hybrid- und Multicloud-Umgebungen, die Daten in Petabyte-Umfang aufnimmt, analysiert, aufbereitet, verwaltet, reguliert und geschäftsfähiger KI bereitstellt.
Als Datenverwaltungsinstrumente gab es zunächst nur Datenbanken – diese entwickelten sich aufgrund zunehmend komplexer Geschäftsproblematiken zu Data Warehouses und Data Lakes weiter. Data Fabric ist der nächste Schritt in der Evolution dieser Instrumente. Mit einer solchen Architektur können Sie weiterhin die separaten Datenspeicher nutzen, in die Sie investiert haben, und zugleich die Datenverwaltung vereinfachen. Mit Data Fabric schöpfen Sie das Potenzial Ihrer Daten maximal aus, erleichtern eine gemeinsame Nutzung von Daten und beschleunigen Dateninitiativen durch Automatisierung der Datenintegration, Einbindung der Governance und Self-Service-Datennutzung. Dies ist mit Speicherrepositorys so nicht möglich.
Datenvirtualisierung ist eine der Technologien, die einen Data-Fabric-Ansatz erst ermöglichen. Statt Daten physisch anhand der üblichen ETL-Prozesse (extrahieren, transformieren, laden) aus verschiedenen Quellen vor Ort und in der Cloud zu verschieben, verbindet sich ein Datenvirtualisierungstool mit verschiedenen Datenquellen, verwendet ausschließlich die benötigten Metadaten und erzeugt eine virtuelle Datenebene. So können die Quelldaten in Echtzeit genutzt werden.
Daten häufen sich immer mehr an, sodass es Unternehmen schwerfällt, auf Informationen zuzugreifen. Allerdings gehen so wichtige Einblicke verloren – das Ergebnis ist eine Wissenslücke.
Mit den Datenvirtualisierungsfunktionen einer Data-Fabric-Architektur können Unternehmen auf Quelldaten zugreifen, ohne sie verschieben zu müssen, und können sie damit schneller und präziser abfragen.
¹„Rethink Data: Bessere Nutzung von mehr Unternehmensdaten – vom Netzwerkrand bis hin zur Cloud“ (PDF, 8,3 MB, Link liegt außerhalb von ibm.com), Seagate Technology, Juli 2020
²„The Total Economic Impact Of IBM Garage“, eine Auftragsstudie durchgeführt von Forrester Consulting, Oktober 2020 (Link liegt außerhalb von ibm.com)