Was ist Datenmodellierung?

Kleine, farbenfrohe Privatbüros

Was ist Datenmodellierung?

Bei der Datenmodellierung wird entweder ein ganzes Informationssystem oder Teile davon visuell dargestellt, um Verbindungen zwischen Datenpunkten und Strukturen zu kommunizieren.

Das Ziel der Datenmodellierung ist es, die im System verwendeten und gespeicherten Datentypen, die Beziehungen zwischen diesen Datentypen, die Gruppierungs- und Organisationsformen der Daten sowie deren Formate und Attribute zu illustrieren.

Datenmodelle sind auf die Bedürfnisse von Unternehmen zugeschnitten. Regeln und Anforderungen werden im Voraus anhand des Feedbacks der Stakeholder definiert, sodass sie in den Entwurf eines neuen Systems integriert oder in der Iteration eines bestehenden Systems angepasst werden können.

Daten können auf verschiedenen Abstraktionsebenen modelliert werden. Der Prozess beginnt mit dem Sammeln von Informationen über die Geschäftsanforderungen von Stakeholdern und Endnutzern. Diese Business Rules werden dann in Datenstrukturen übersetzt, um einen konkreten Datenbankentwurf zu formulieren. Ein Datenmodell lässt sich mit einer Straßenkarte, einem Architektenplan oder einem beliebigen formalen Diagramm vergleichen, das ein tieferes Verständnis dessen ermöglicht, was entworfen wird.

Bei der Datenmodellierung werden standardisierte Schemata und formale Techniken verwendet. Dies bietet eine gemeinsame, konsistente und vorhersehbare Methode zur Definition und Verwaltung von Ressourcen in einem Unternehmen oder sogar darüber hinaus.

Im Idealfall sind Datenmodelle lebendige Dokumente, die sich mit den sich ändernden Geschäftsanforderungen weiterentwickeln. Sie spielen eine wichtige Rolle bei der Unterstützung von Geschäftsprozessen sowie bei der Planung der IT-Architektur und -Strategie. Datenmodelle können mit Anbietern, Partnern und/oder Branchenkollegen geteilt werden.

Die neuesten Tech-News – von Experten bestätigt

Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben sich angemeldet.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Arten von Datenmodellen

Wie jeder Designprozess beginnt auch die Entwicklung von Datenbanken und Informationssystemen auf einer hohen Abstraktionsebene und wird zunehmend konkreter und spezifischer. Datenmodelle lassen sich im Allgemeinen in drei Kategorien einteilen, die je nach Grad der Abstraktion variieren. Der Prozess beginnt mit einem konzeptuellen Modell, entwickelt sich zu einem logischen Modell und endet mit einem physikalischen Modell. Jede Art von Datenmodell wird in den folgenden Abschnitten ausführlicher behandelt:

Konzeptionelle Datenmodelle

Konzeptionelle Datenmodelle: Sie werden auch als Domainmodelle bezeichnet und bieten einen umfassenden Überblick darüber, was das System enthalten wird, wie es organisiert sein wird und welche Business Rules daran beteiligt sind. Solche konzeptionellen Modelle werden in der Regel als Teil des Prozesses zur Erfassung der ersten Projektanforderungen erstellt. Meist enthalten sie Entitätsklassen (die Dinge definieren, die für das Unternehmen im Datenmodell dargestellt werden sollen), ihre Merkmale und Einschränkungen, die Beziehungen zwischen ihnen und die relevanten Sicherheits- und Datenintegritätsanforderungen. Jede Notation ist typischerweise einfach.

Diagramm zur konzeptionellen Datenmodellierung

Logische Datenmodelle

Logische Datenmodelle: Sie sind weniger abstrakt und enthalten detailliertere Informationen zu den Konzepten und Beziehungen in der betrachteten Domain. Es wird eines von mehreren formalen Notationssystemen für die Datenmodellierung verwendet. Diese geben Datenattribute wie Datentypen und ihre entsprechenden Längen an und zeigen die Beziehungen zwischen den Entitäten. Logische Datenmodelle legen keine technischen Systemanforderungen fest. Diese Phase wird in flexiblen oder DevOps-Praktiken DevOps häufig ausgelassen. Logische Datenmodelle können in hochprozeduralen Implementierungsumgebungen oder für datenorientierte Projekte nützlich sein, wie etwa das Design von Data Warehouse oder die Entwicklung von Berichtssystemen.

Diagramm zur logischen Datenmodellierung

Physische Datenmodelle

Sie bieten ein Schema vor, wie die Daten physisch in einer Datenbank gespeichert werden. Als solche sind sie am wenigsten abstrakt von allen. Sie bieten ein fertiges Design, das als relationale Datenbank implementiert werden kann, einschließlich assoziativer Tabellen, die die Beziehungen zwischen Entitäten veranschaulichen, sowie der Primär- und Fremdschlüssel, die zur Aufrechterhaltung dieser Beziehungen verwendet werden. Physische Datenmodelle können für das Datenbankmanagementsystem (DBMS) spezifische Eigenschaften enthalten, einschließlich Leistung.

Diagramm zur physischen Datenmodellierung

Datenmodellierungsprozess

Als Disziplin lädt die Datenmodellierung die Stakeholder dazu ein, die Datenverarbeitung und den Speicher bis ins kleinste Detail zu bewerten. Datenmodellierungstechniken haben unterschiedliche Konventionen, die bestimmen, welche Symbole zur Darstellung der Daten verwendet werden, wie Modelle angeordnet werden und wie geschäftliche Anforderungen übermittelt werden. Alle Ansätze bieten formalisierte Workflows, die eine Abfolge von Aufgaben enthalten, die iterativ ausgeführt werden. Diese Workflows sehen im Allgemeinen so aus:

  1. Identifizieren Sie die Entitäten. Der Prozess der Datenmodellierung beginnt mit der Identifikation der Dinge, Ereignisse oder Konzepte, die im zu modellierenden Datensatz dargestellt sind. Jede Entität sollte zusammenhängend und logisch von allen anderen getrennt sein.
  2. Identifizieren Sie die wichtigsten Eigenschaften jeder Entität. Jeder Entitätstyp lässt sich von allen anderen dadurch unterscheiden, dass er eine oder mehrere einzigartige Eigenschaften besitzt, die als Attribute bezeichnet werden. Eine Entität namens „Kunde“ könnte beispielsweise Attribute wie Vorname, Nachname, Telefonnummer und Anrede besitzen, während eine Entität namens „Adresse“ Straßenname und Hausnummer, Stadt, Bundesland, Land und Postleitzahl enthalten könnte.
  3. Identifizieren Sie Beziehungen zwischen Entitäten. Der früheste Entwurf eines Datenmodells legt die Art der Beziehungen an, die jede Entität zu den anderen hat. Im obigen Beispiel „wohnt“ jeder Kunde an einer Adresse. Würde dieses Modell um eine Entität namens „Bestellungen“ erweitert, würde jede Bestellung auch an eine Adresse versandt und in Rechnung gestellt. Diese Beziehungen werden üblicherweise über eine einheitliche Modellierungssprache (UML) dokumentiert.
  4. Ordnen Sie Entitäten vollständig Attribute zu. Dadurch wird sichergestellt, dass das Modell widerspiegelt, wie das Unternehmen die Daten nutzen wird. Mehrere formale Datenmodellierungsmuster werden weit verbreitet genutzt. Entwickler mit objektorientierter Ausrichtung wenden häufig Analyse- oder Entwurfsmuster an, während Stakeholder aus anderen Geschäftsbereichen möglicherweise andere Muster verwenden.
  5. Weisen Sie bei Bedarf Schlüssel zu und entscheiden Sie sich für einen Normalisierungsgrad, der das Bedürfnis nach Redundanzreduzierung mit den Leistungsanforderungen in Einklang bringt. Normalisierung ist eine Technik zur Organisation von Datenmodellen (und den von ihnen repräsentierten Datenbanken), bei der numerische Identifikatoren, sogenannte Schlüssel, Datengruppen zugewiesen werden, um Beziehungen zwischen ihnen darzustellen, ohne die Daten zu wiederholen. Wenn beispielsweise jedem Kunden ein Schlüssel zugewiesen wird, kann dieser Schlüssel sowohl mit ihrer Adresse als auch mit ihrer Bestellhistorie verknüpft werden, ohne diese Information in der Tabelle der Kundennamen wiederholen zu müssen. Die Normalisierung reduziert den Speicherplatz, den eine Datenbank benötigt, aber sie kann die Abfrageleistung beeinträchtigen.
  6. Finalisieren und validieren Sie das Datenmodell. Die Datenmodellierung ist ein iterativer Prozess, der wiederholt und verfeinert werden sollte, wenn sich die Geschäftsanforderungen ändern.
Mixture of Experts | 12. Dezember, Folge 85

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Typen der Datenmodellierung

Die Datenmodellierung hat sich parallel zu den Datenbankmanagementsystemen weiterentwickelt, wobei die Komplexität der Modelltypen mit dem Wachstum des Datenspeicherbedarfs der Unternehmen zugenommen hat. Hier sind verschiedene Modelltypen:

  • Hierarchische Datenmodelle stellen Eins-zu-viele-Beziehungen in einem baumartigen Format dar. Bei dieser Art von Modell hat jeder Datensatz eine einzige Stamm- oder übergeordnete Tabelle, die auf eine oder mehrere untergeordnete Tabellen verweist. Dieses Modell wurde im IBM Information Management System (IMS) implementiert, das 1966 eingeführt wurde und schnell weite Verbreitung fand, insbesondere im Bankwesen. Obwohl dieser Ansatz weniger effizient ist als neuere Datenbankmodelle, wird er weiterhin in Extensible Markup Language (XML)-Systemen und geographischen Informationssystemen (GIS) verwendet.
  • Relationale Datenmodelle wurden ursprünglich vom IBM-Forscher E.F. vorgeschlagen. Codd im Jahr 1970. Sie sind heute noch in den vielen verschiedenen relationalen Datenbanken implementiert, die häufig in der Unternehmens-Datenverarbeitung verwendet werden. Relationale Datenmodellierung erfordert kein detailliertes Verständnis der physikalischen Eigenschaften des Datenspeichers. Dabei werden Datensegmente explizit mithilfe von Tabellen verknüpft, wodurch die Komplexität der Datenbank reduziert wird.

Relationale Datenbanken verwenden häufig strukturierte Abfragesprache (SQL) für die Datenverwaltung. Diese Datenbanken eignen sich gut zur Wahrung der Datenintegrität und zur Minimierung von Redundanz. Sie werden häufig in Kassensystemen und für andere Arten der Transaktionsverarbeitung verwendet.

  • Entity-Relationship (ER)-Datenmodelle verwenden formale Diagramme zur Darstellung der Beziehungen zwischen Entitäten in einer Datenbank. Mehrere ER-Modellierungswerkzeuge werden von Data Architects verwendet, um visuelle Karten zu erstellen, die die Ziele des Datenbankdesigns vermitteln.
  • Objektorientierte Datenmodelle gewannen als objektorientierte Programmierung an Zugkraft und wurden Mitte der 1990er Jahre populär. Bei den verwendeten „Objekten“ handelt es sich um Abstraktionen von Entitäten der realen Welt. Objekte sind in Klassenhierarchien gruppiert und haben zugehörige Funktionen. Objektorientierte Datenbanken können Tabellen enthalten, können aber auch komplexere Datenbeziehungen unterstützen. Dieser Ansatz wird in Multimedia- und Hypertextdatenbanken sowie in anderen Anwendungsfallen eingesetzt.
  • Dimensionale Datenmodelle wurden von Ralph Kimball entwickelt, und sie wurden entwickelt, um die Datenabrufgeschwindigkeit für analytische Zwecke in einem Data Warehouse zu optimieren. Während relationale und ER-Modelle die effiziente Speicherung betonen, erhöhen dimensionale Modelle die Redundanz, um das Auffinden von Informationen für Berichte und den Abruf zu erleichtern. Diese Modellierung wird typischerweise in OLAP-Systemen verwendet.

Zwei beliebte dimensionale Datenmodelle sind das Sternschema, bei dem die Daten in Fakten (messbare Elemente) und Dimensionen (Referenzinformationen) gegliedert sind, wobei jeder Fakt von den zugehörigen Dimensionen in einem sternförmigen Muster umgeben ist. Das andere ist das Schneeflockenschema, das dem Sternschema ähnelt, aber zusätzliche Ebenen assoziierter Dimensionen enthält, wodurch das Verzweigungsmuster komplexer wird.

Vorteile der Datenmodellierung

Datenmodellierung erleichtert es Entwicklern, Datenarchitekten, Geschäftsanalysten und anderen Stakeholdern, die Beziehungen zwischen den Daten in einer Datenbank oder einem Data Warehouse einzusehen und zu verstehen. Darüber hinaus kann es:

  • Fehler bei der Software- und Datenbankentwicklung reduzieren.
  • Die Einheitlichkeit der Dokumentation und des Systemdesigns im gesamten Unternehmen steigern.
  • Die Leistung von Anwendungen und Datenbanken verbessern.
  • Die Datenzuordnung im gesamten Unternehmen vereinfachen.
  • Die Kommunikation zwischen Entwicklern und Business-Intelligence-Teams verbessern.
  • Den Prozess der Datenbankgestaltung auf konzeptionlicher, logischer und physischer Ebene erleichtern und beschleunigen.

Tools zur Datenmodellierung

Zahlreiche kommerzielle und Open-Source-Lösungen für computergestütztes Software-Engineering (CASE) sind heute weit verbreitet, darunter mehrere Tools für die Datenmodellierung, Diagrammerstellung und Visualisierung. Hier einige Beispiele:

  • erwin Data Modeler ist ein Datenmodellierungstool, das auf der IDEF1X-Datenmodellierungssprache (Integration DEFinition for Information Modeling) basiert und inzwischen auch andere Notationsmethoden unterstützt, einschließlich eines dimensionalen Ansatzes.
  • Enterprise Architect ist ein visuelles Modellierungs- und Designwerkzeug, das die Modellierung von Unternehmensinformationssystemen und -architekturen sowie von Softwareanwendungen und Datenbanken unterstützt. Es basiert auf objektorientierten Sprachen und Standards.
  • ER/Studio ist Datenbankdesign-Software, die mit mehreren der heute beliebtesten Datenbankmanagementsysteme kompatibel ist. Es unterstützt sowohl relationale als auch dimensionale Datenmodellierung.
  • Zu den kostenlosen Tools für die Datenmodellierung gehören Open-Source-Lösungen wie Open ModelSphere.
Weiterführende Lösungen
Data-Science-Tools und -Lösungen

Nutzen Sie Data-Science-Tools und -Lösungen, um mithilfe von Daten, Algorithmen, maschinellem Lernen und KI-Techniken Muster zu erkennen und Prognosen zu treffen.

Entdecken Sie Data-Science-Lösungen
IBM Cognos Analytics

Wir stellen vor: Cognos Analytics 12.0, KI-gestützte Erkenntnisse für eine bessere Entscheidungsfindung.

Cognos Analytics erkunden
Beratungsservices für Daten und Analysen

Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting und bauen Sie ein erkenntnisorientiertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.

Entdecken Sie die Analyse-Services
Machen Sie den nächsten Schritt

Nutzen Sie Data-Science-Tools und -Lösungen, um mithilfe von Daten, Algorithmen, maschinellem Lernen und KI-Techniken Muster zu erkennen und Prognosen zu treffen.

Data-Science-Lösungen erkunden Analysedienste erkunden