Was ist ein Rechenzentrum?
Erfahren Sie mehr über Rechenzentren – die physischen Einrichtungen, die Enterprise- und Cloud-Computing möglich machen
Was ist ein Rechenzentrum?

Ein Rechenzentrum ist ein physischer Raum, ein Gebäude oder eine Einrichtung für die  IT-Infrastruktur zur Erstellung, Ausführung und Bereitstellung von Anwendungen und Services sowie zur Speicherung und Verwaltung der mit diesen Anwendungen und Services zugehörigen Daten.

Rechenzentren haben sich in den letzten Jahren von privaten, streng kontrollierten, lokalen Einrichtungen mit traditionellen IT-Infrastrukturen zur ausschließlichen Nutzung eines Unternehmen zu fernen Einrichtungen oder Netzwerken von Einrichtungen im Besitz von Cloud-Service-Anbietern entwickelt, wo virtualisierte IT-Infrastrukturen von mehrere Unternehmen und Kunden geteilt werden.

Arten von Rechenzentren

Es gibt verschiedene Arten von Rechenzentren, und ein einzelnes Unternehmen kann je nach Arbeitslast und Geschäftsanforderung mehr als eine Art nutzen.

Unternehmens-Rechenzentren (On-Premises)

In diesem Rechenzentrum-Modell werden die gesamte IT-Infrastruktur und die Daten lokal (On-Premises) zur Verfügung gestellt. Viele Unternehmen entscheiden sich für ihre eigenen lokalen Rechenzentren, weil sie der Meinung sind, dass sie mehr Kontrolle über die Informationssicherheit haben und Vorschriften wie die Allgemeine Datenschutz-Grundverordnung der Europäischen Union (DSGVO) oder den U.S. Health Insurance Portability and Accountability Act (HIPAA) leichter einhalten können. In einem Unternehmensrechenzentrum ist das Unternehmen für alle Aufgaben zur Bereitstellung, Überwachung und Verwaltung verantwortlich.

Public-Cloud-Rechenzentren

Cloud-Rechenzentren (auch Cloud Computing-Rechenzentren genannt) stellen IT-Infrastruktur-Ressourcen für die gemeinsame Nutzung durch mehrere Kunden – von einigen wenigen bis zu Millionen von Kunden – über eine Internetverbindung bereit.

Viele der größten Cloud-Rechenzentren – sogenannte Hyperscale-Rechenzentren – werden von großen Cloud-Service-Anbietern wie Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure und Oracle Cloud Infrastructure betrieben. Tatsächlich betreiben die meisten führenden Cloud-Anbieter mehrere Hyperscale-Rechenzentren auf der ganzen Welt. Cloud-Service-Anbieter haben meist kleinere Edge-Rechenzentren, die näher an den Cloud-Kunden (und den Kunden der Cloud-Kunden) liegen. Für echtzeitorientierte, datenintensive Workloads wie Big Data Analytics, künstliche Intelligenz (KI) und Content-Delivery-Anwendungen können Edge-Rechenzentren dazu beitragen, Latenzzeiten zu minimieren und so die Gesamtleistung der Anwendungen und das Kundenerlebnis zu verbessern.

Verwaltete Rechenzentren und Colocation-Einrichtungen

Verwaltete Rechenzentren und Colocation-Einrichtungen sind Optionen für Unternehmen, die nicht über die Räumlichkeiten, das Personal oder das Fachwissen verfügen, um einen Teil oder die gesamte IT-Infrastruktur vor Ort zu implementieren und zu verwalten, aber diese Infrastruktur nicht innerhalb den geteilten Ressourcen eines Public-Cloud-Rechenzentrums hosten möchten.

In einem verwalteten Rechenzentrum mietet das Kundenunternehmen dedizierte Server, Speicher- und Netzwerkhardware vom Anbieter des Rechenzentrums, und dieser übernimmt die Verwaltung, Überwachung und das Management.

In einer Colocation-Einrichtung besitzt das Kundenunternehmen die gesamte Infrastruktur und mietet einen speziellen Bereich, um sie in der Einrichtung zu hosten. Beim traditionellen Colocation-Modell hat das Kundenunternehmen alleinigen Zugriff auf die Hardware und die volle Verantwortung für deren Verwaltung. Dies ist ideal für den Datenschutz und die Sicherheit, aber oft unpraktisch, insbesondere bei Ausfällen oder Notfällen. Heute bieten die meisten Colocation-Anbieter Management- und Überwachungsdienste für Kunden an, die dies wünschen.

Verwaltete Rechenzentren und Colocation-Einrichtungen werden häufig für Remote-Datensicherungs- und Disaster-Recovery-Technologien für kleine und mittelständische Unternehmen (KMUs) verwendet.

Rechenzentrum-Architektur

Die meisten modernen Rechenzentren, selbst interne Rechenzentren, haben sich von der traditionellen IT-Architektur, bei der jede Anwendung oder Arbeitslast auf einer eigenen dedizierten Hardware läuft, zu einer Cloudarchitektur entwickelt, bei der physische Hardwareressourcen – CPUs, Speicher, Netzwerke – virtualisiert werden. Virtualisierung  ermöglicht es, diese Ressourcen von ihren physischen Einschränkungen zu lösen und zu Kapazitäten zusammenzufassen, die mehreren Anwendungen und Arbeitslasten in beliebiger Größenordnung zugewiesen werden können.

Virtualisierung ermöglicht auch eine softwaredefinierte Infrastruktur (SDI), eine Infrastruktur, die voll automatisch und programmgesteuert bereitgestellt, konfiguriert, betrieben, gewartet und „heruntergefahren“ werden kann.

Die Kombination aus Cloudarchitektur und SDI bietet Rechenzentren und ihren Nutzern viele Vorteile, darunter die folgenden:

  • Optimale Auslastung der Ressourcen Rechen-, Speicherung- und Netzressourcen. Virtualisierung ermöglicht es Unternehmen oder Clouds, die meisten Benutzer mit der geringsten Hardware und den wenigsten ungenutzten oder ungenutzten Kapazitäten zu bedienen.

  • Schnelle Bereitstellung von Anwendungen und Services. SDI-Automatisierung macht Bereitstellung neuer Infrastruktur so einfach wie eine Anforderung über ein Self-Service-Portal.

  • Skalierbarkeit. Virtualisierte IT-Infrastruktur ist wesentlich einfacher zu skalieren als traditionelle IT-Infrastruktur. Selbst Unternehmen, die lokale Rechenzentren nutzen, können bei Bedarf ihre Kapazität erhöhen, indem sie Arbeitslasten in die Cloud auslagern.

  • Vielzahl an Services und Rechenzentrumslösungen. Unternehmen und Clouds können Nutzern eine Reihe von Möglichkeiten bieten, IT zu nutzen und bereitzustellen – alles über dieselbe Infrastruktur. Die Auswahl basiert auf den Anforderungen der Workloads und umfassen Infrastructure as a service (IaaS)Platform as a service (PaaS), und Software as a service (SaaS). Diese Services können in einem privaten Rechenzentrum oder als Cloud-Lösungen in einer Private-Cloud-, Public-Cloud-, Hybrid-Cloud- oder Multicloud -Umgebung angeboten werden.

  • Cloudnative Entwicklung. Containerisierung und serverloses Computing sowie ein robustes Open-Source-Ökosystem ermöglichen und beschleunigen DevOps-Zyklen und Anwendungsmodernisierung sowie Anwendungen für die einmalige Entwicklung und Bereitstellung.

Komponenten der Rechenzentrum-Infrastruktur

Server

Server sind leistungsfähige Computer, die Anwendungen, Dienste und Daten für Endbenutzergeräte bereitstellen. Server für Rechenzentren gibt es in verschiedenen Formen:

  • Rackmount-Server sind breite, flache Standalone-Server – in der Größe eines kleinen Pizzakartons – die dafür konzipiert sind, in einem Rack platzsparend übereinander gestapelt zu werden (im Gegensatz zu einem Tower- oder Desktop-Server). Jeder Rackmount-Server verfügt über eine eigene Stromversorgung, Lüfter, Netzwerk-Switches und Ports sowie den üblichen Prozessor, Arbeitsspeicher und Speicher.

     

  • Blade-Server sind konzipiert, um noch mehr Platz zu sparen. Jedes Blade enthält Prozessoren, Netzwerk-Controller, Arbeitsspeicher und teilweise auch Speicher. Sie sind so konzipiert, dass sie in ein Gehäuse passen, das mehrere Blades aufnimmt und die Stromversorgung, das Netzwerkmanagement und andere Ressourcen für alle Blades im Gehäuse enthält.

     

  • Mainframes sind Hochleistungscomputer mit mehreren Prozessoren, die so viel wie ein ganzer Raum, gefüllt mit Rackmount- oder Blade-Servern, leisten können. Mainframes, als erste virtualisierbare Computer, können Milliarden von Berechnungen und Transaktionen in Echtzeit verarbeiten.

Die Wahl der Form hängt von vielen Faktoren ab, darunter der verfügbare Platz im Rechenzentrum, die Arbeitslasten, die auf den Servern ausgeführt werden, die verfügbare Leistung und die Kosten.

Speichersysteme

Die meisten Server verfügen über eine lokale Speicherkapazität, den sogenannten Direct-Attached Storage (DAS), damit die am häufigsten verwendeten Daten (Hot Data) in der Nähe der CPU verbleiben können.

Zwei weitere Speicherkonfigurationen für Rechenzentren sind Network-Attached Storage (NAS) und Storage Area Network (SAN).

NAS bietet Datenspeicherung und Datenzugriff auf mehrere Server über eine Standard-Ethernet-Verbindung. Das NAS-Gerät ist in der Regel ein dedizierter Server mit mehreren Speichermedien – Festplattenlaufwerken (HDDs) und/oder Solid State Drives (SSDs).

Wie NAS ermöglicht ein SAN gemeinsam genutzte Speicher, aber ein SAN verwendet ein separates Netzwerk für die Daten und besteht aus einer komplexeren Mischung aus mehreren Speicherservern, Anwendungsservern und Speicherverwaltungssoftware.

Ein einziges Rechenzentrum kann alle drei Speicherkonfigurationen – DAS, NAS und SAN – verwenden, sowie DateispeicherBlockspeicher und Objektspeicher. 

Netzbetrieb

Das Netzwerk des Rechenzentrums, das aus verschiedenen Arten von Switches, Routern und Glasfaserkabeln besteht, überträgt den Netzwerkverkehr zwischen den Servern (Ost/West-Verkehr genannt) und von/zu den Servern zu den Clients (Nord/Süd-Verkehr genannt).

Wie oben erwähnt, sind die Netzservices eines Rechenzentrums typischerweise virtuell. Dies ermöglicht Erstellung von softwaredefinierten Overlay-Netzwerken, die auf der physischen Infrastruktur des Netzwerks aufbauen, um bestimmte Sicherheitskontrollen oder Service Level Agreements (SLAs) zu erfüllen.

Stromversorgung und Kabelmanagement

Rechenzentren müssen stets verfügbar sein, auf jeder Ebene. Die meisten Server verfügen über zwei Energiequellen zur Stromversorgung. Batteriebetriebene unterbrechungsfreie Stromversorgungen (UPS) schützen vor Stromstößen und kurzen Stromausfällen. Leistungsfähige Generatoren können bei einem schwerwiegenden Stromausfall einspringen.

Bei Tausenden von Servern, die über verschiedene Kabel miteinander verbunden sind, ist das Kabelmanagement ein wichtiges Thema bei der Planung von Rechenzentren. Wenn Kabel zu nahe beieinander liegen, kann es zu Übersprechen kommen, was sich negativ auf die Datenübertragungsraten und die Signalübertragung auswirken kann. Wenn zu viele Kabel zusammengelegt werden, können sie außerdem übermäßige Hitze erzeugen. Beim Bau und der Erweiterung von Rechenzentren müssen Bauvorschriften und Industriestandards berücksichtigt werden, um eine effiziente und sichere Verkabelung zu gewährleisten.

Redundanz und Notfallwiederherstellung

Ausfallzeiten von Rechenzentren sind sowohl für die Anbieter von Rechenzentren als auch für deren Kunden kostspielig. Betreiber und Architekten von Rechenzentren unternehmen große Anstrengungen, um die Ausfallsicherheit ihrer Systeme zu erhöhen. Diese Maßnahmen umfassen alles von redundanten Arrays unabhängiger Festplatten (RAIDs) zum Schutz vor Datenverlust oder -beschädigung im Falle eines Ausfalls der Speichermedien bis hin zu einer Backup-Kühlungsinfrastruktur für das Rechenzentrum, die dafür sorgt, dass die Server bei optimalen Temperaturen laufen, selbst wenn das primäre Kühlsystem ausfällt.

Viele große Anbieter von Rechenzentren verfügen über Rechenzentren in geografisch unterschiedlichen Regionen, sodass im Falle einer Naturkatastrophe oder einer politischen Störung in einer Region der Betrieb in eine andere Region verlagert werden kann, um ununterbrochene Dienste zu gewährleisten.

Das  Uptime Institut (Link befindet sich außerhalb von ibm.com) verwendet ein vierstufiges System, um die Redundanz und Resilienz von Rechenzentren zu bewerten:

  • Tier I – Bietet grundlegende Redundanzkapazitätskomponenten, wie unterbrechungsfreie Stromversorgung (USV) und 24/7-Kühlung, zur Unterstützung des IT-Betriebs in einer Büroumgebung oder darüber hinaus.

     

  • Tier II – Zusätzliche redundante Stromversorgungs- und Kühlungs-Subsysteme, wie Generatoren und Energiespeicher, sorgen für mehr Sicherheit bei Störungen.

     

  • Tier III – Fügt redundante Komponenten als wesentliches Unterscheidungsmerkmal zu anderen Rechenzentren hinzu. Tier III-Einrichtungen müssen nicht abgeschaltet werden, wenn Geräte gewartet oder ausgetauscht werden müssen.

     

  • Tier IV – Erhöht die Fehlertoleranz durch Bereitstellung mehrerer unabhängiger, physisch isolierter redundanter Kapazitätskomponenten, sodass ein Geräteausfall keine Auswirkungen auf den IT-Betrieb hat.

Kontrollmechanismen der Umgebung

Rechenzentren müssen so konzipiert und ausgestattet sein, dass sie Umgebungsfaktoren – von denen die meisten miteinander verknüpft sind – kontrollieren können, die die Hardware beschädigen bzw. zerstören und zu teuren bzw. katastrophalen Ausfallzeiten führen können.

  • Temperatur: Die meisten Rechenzentren verwenden eine Kombination aus Luft- und Flüssigkeitskühlung, um Server und andere Hardware in den richtigen Temperaturbereichen zu halten. Bei der Luftkühlung handelt es sich im Grunde um eine Klimatisierung, genauer gesagt um eine Klimatisierung von Computerräumen (CRAC), die auf den gesamten Serverraum oder auf bestimmte Serverreihen oder -schränke ausgerichtet ist. Technologien zur Flüssigkeitskühlung pumpen die Flüssigkeit direkt zu den Prozessoren, oder in einigen Fällen werden die Server in die Kühlflüssigkeit getaucht. Zur Energieeffizienz und Nachhaltigkeit setzen Anbieter von Rechenzentren zunehmend auf Flüssigkeitskühlung die weniger Strom und Wasser als Luftkühlung benötigt.

  • Feuchtigkeit: Eine hohe Luftfeuchtigkeit kann dazu führen, dass Geräte rosten; eine niedrige Luftfeuchtigkeit kann das Risiko elektrostatischer Ladung erhöhen (siehe unten). Geräte zur Kontrolle der Luftfeuchtigkeit umfassen die bereits erwähnten CRAC-Systeme, angemessene Belüftung und Feuchtigkeitssensoren.

     

  • Statische Elektrizität: Bereits eine statische Entladung von 25 Volt kann Geräte beschädigen oder Daten verfälschen. Rechenzentren sind mit Geräten ausgestattet, die elektrostatische Ladung überwachen und sicher ableiten.

     

  • Feuer: Aus verständlichen Gründen müssen Rechenzentren mit Brandschutzvorrichtungen ausgestattet sein, die regelmäßig getestet werden müssen.

Relevante Lösungen
Konvergente Infrastruktursysteme und -lösungen

Mit modernen Infrastrukturlösungen werden Server, Speicher und Netzwerkfunktionen zu einer integrierten Plattform kombiniert.

Konvergente Infrastruktursystemen und -lösungen erkunden
Globale Rechenzentren

Erfahren Sie mehr über die IBM Cloud-Rechenzentren auf der ganzen Welt, damit Sie geografisch spezifische Anforderungen schnell erfüllen können.

Globale Rechenzentren erkunden
IBM Cloud

IBM Cloud mit Red Hat bietet marktführende Sicherheit, Skalierbarkeit für Unternehmen und offene Innovation, um das Potenzial von Cloud und KI voll auszuschöpfen.

IBM Cloud erkunden
Ressourcen Das Rechenzentrum der Zukunft

Eine softwaredefinierte Umgebung, in der die Serviceoptimierung den Weg weist.

Prefabricated Modular Data Center

Schnelle Bereitstellung eines flexiblen, skalierbaren, energiesparenden Rechenzentrum in einem vordefinierten modularen Format.

Machen Sie den nächsten Schritt
 

Das IBM Cloudnetz basiert auf einem physischen Backbone von mehr als 60 Rechenzentren in 19 Ländern auf allen Kontinenten außer der Antarktis. Diese Rechenzentren wurden gebaut, um den Bedarf von Kunden weltweit an lokalem Datenzugriff, hoher Zuverlässigkeit und Leistung sowie niedrigen Latenzzeiten zu erfüllen.Erkunden Sie, wie das globale Netzwerk der IBM Cloud-Rechenzentren die physische Infrastruktur für die Unterstützung von mehr als 170 auf Unternehmen abgestimmten Produkten und Services bietet – von fortschrittlichen Geschäftsanalysen und KI bis zu innovativen Entwicklertools und den dazu passenden erstklassigen Rechen- und Speicherressourcen.

Mehr über IBM Rechenzentren erfahren