Ein Rechenzentrum ist ein Raum, ein Gebäude oder eine Anlage in physischer Form. Darin befindet sich die IT-Infrastruktur für Erstellung, Ausführung und Bereitstellung von Anwendungen und Services. Außerdem werden die mit diesen Anwendungen und Diensten verknüpften Daten gespeichert und verwaltet.
Rechenzentren waren ursprünglich in Privatbesitz befindliche, streng kontrollierte lokale Einrichtungen, die die traditionelle IT-Infrastruktur ausschließlich für ein Unternehmen beherbergten. Mittlerweile haben sie sich zu dezentralen Einrichtungen oder Netzwerken von Einrichtungen entwickelt, die Cloud-Service-Providern (CSPs) gehören. Diese CSP-Rechenzentren beherbergen eine virtualisierte IT-Infrastruktur, die von mehreren Unternehmen und Kunden gemeinsam genutzt wird.
Rechenzentren gibt es seit den 1940er-Jahren. Der 1945 an der University of Pennsylvania fertiggestellte „Electrical Numerical Integrator and Computer“ (ENIAC) des US-Militärs ist ein frühes Beispiel für ein Rechenzentrum, das einen eigenen Raum für die Unterbringung seiner riesigen Maschinen benötigte.
Im Laufe der Jahre wurden Computer immer kleiner und benötigten weniger Platz. In den 1990er Jahren kamen Mikrocomputer auf den Markt, die den für IT-Vorgänge benötigten Platz drastisch reduzierten. Diese Mikrocomputer, die nach und nach die alten Räume mit den Mainframes füllten, wurden als „Server“ bekannt, und die Räume wurden zu „Rechenzentren“.
Das Aufkommen des Cloud Computing in den frühen 2000er Jahren hat die traditionelle Landschaft der Rechenzentren erheblich verändert. Cloud-Services ermöglichen es Unternehmen, bei Bedarf über das Internet auf Rechenressourcen zuzugreifen, wobei die Abrechnung nutzungsbasiert erfolgt. Dies ermöglicht eine flexible Skalierung nach oben oder unten, je nach Bedarf.
2006 führte Google das erste Hyperscale-Rechenzentrum in The Dalles, Oregon, ein. Diese Hyperscale-Einrichtung nimmt derzeit eine Fläche von über 120.000 Quadratmetern ein und beschäftigt rund 200 Rechenzentrumsbetreiber.1
Eine Studie von McKinsey & Company prognostiziert für die Branche bis 2030 ein jährliches Wachstum von 10 %, wobei die weltweiten Ausgaben für den Bau neuer Anlagen 49 Milliarden US-Dollar erreichen werden.2
Es gibt verschiedene Arten von Rechenzentren, und je nach Workload oder Geschäftsanforderungen kann ein Unternehmen auch unterschiedliche Arten nutzen.
Dieses Rechenzentrumsmodell hostet die gesamte IT-Infrastruktur und alle Daten vor Ort. Viele Unternehmen entscheiden sich für lokale Rechenzentren. Sie haben mehr Kontrolle über die Informationssicherheit und können Vorschriften wie die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union oder den US-amerikanischen Health Insurance Portability and Accountability Act (HIPAA) leichter einhalten. Das Unternehmen ist für alle Bereitstellungs-, Überwachungs- und Verwaltungsaufgaben in einem Unternehmensrechenzentrum verantwortlich.
Cloudbasierte Rechenzentren (auch Cloud-Computing-Rechenzentren genannt) bestehen aus IT-Infrastrukturressourcen, die von mehreren Kunden – von Dutzenden bis hin zu Millionen – über eine Internetverbindung gemeinsam genutzt werden können.
Viele der größten Cloud-Rechenzentren – sogenannte Hyperscale-Rechenzentren – werden von großen Cloud-Service-Providern (CSPs) wie Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud und Microsoft Azure betrieben. Diese Unternehmen verfügen über große Rechenzentren in jeder Region der Welt. IBM betreibt beispielsweise über 60 IBM Cloud-Rechenzentren an verschiedenen Standorten auf der ganzen Welt.
Hyperscale-Rechenzentren sind größer als herkömmliche Rechenzentren und können Millionen von Quadratmetern umfassen. Sie enthalten in der Regel mindestens 5.000 Server und kilometerweise Verbindungsequipment und können manchmal bis zu 5.500 Quadratmeter groß sein.
Cloud-Service-Anbieter unterhalten normalerweise kleinere Edge-Rechenzentren, die näher an ihren Kunden (und deren Kunden) für Cloud-Services liegen. Edge-Rechenzentren bilden die Grundlage für Edge Computing, ein verteiltes Computing-Framework, das Anwendungen näher an die Endbenutzer bringt. Edge-Rechenzentren sind ideal für datenintensive Echtzeit-Workloads wie Big Data Analytics, künstliche Intelligenz (KI), maschinelles Lernen (ML) und die Bereitstellung von Inhalten. Sie helfen, die Latenzzeit zu minimieren und verbessern so die Gesamtleistung der Anwendung und das Kundenerlebnis.
Verwaltete Rechenzentren und Colocation-Einrichtungen sind Optionen für Unternehmen, denen es an Platz, Personal oder Fachwissen mangelt, um ihre IT-Infrastruktur vor Ort zu verwalten. Diese Optionen sind ideal für diejenigen, die ihre Infrastruktur nicht über die gemeinsam genutzten Ressourcen eines Public Cloud-Rechenzentrums hosten möchten.
In einem verwalteten Rechenzentrum mietet das Kundenunternehmen dedizierte Server, Speicher- und Netzwerkhardware vom Provider, der sich um die Verwaltung, Überwachung und das Management des Kundenunternehmens kümmert.
In einer Colocation-Anlage mietet das Kundenunternehmen einen dedizierten Platz, um die gesamte ihm gehörende Infrastruktur zu hosten. Beim traditionellen Colocation-Modell hat das Kundenunternehmen alleinigen Zugriff auf die Hardware und trägt die volle Verantwortung für deren Verwaltung. Dies ist zwar ideal für Datenschutz und Sicherheit, aber häufig unpraktisch, insbesondere bei Ausfällen oder Notfällen. Die meisten Colocation-Anbieter übernehmen heute auf Wunsch des Kunden auch Verwaltungs- und Überwachungsaufgaben.
Unternehmen entscheiden sich oft für verwaltete Rechenzentren und Colocation-Anlagen, um die Technologie für die Remote-Daten-Backup und Disaster Recovery (DR) für kleine und mittelständische Unternehmen (KMU) unterzubringen.
Die meisten modernen Rechenzentren, auch firmeninterne, haben sich aus der traditionellen IT-Architektur entwickelt. Anstatt jede Anwendung oder jeden Workload auf dedizierter Hardware auszuführen, nutzen sie jetzt eine Cloud-Architektur, in der physische Ressourcen wie CPUs, Speicher und Netzwerke virtualisiert sind. Durch die Virtualisierung ist beispielsweise ein Datenspeicher nicht mehr physisch an seine Hardware-Grenzen gebunden, sondern kann gepoolt und in der benötigten Menge von mehreren Anwendungen und Workloads genutzt werden.
Virtualisierung ermöglicht auch eine softwaredefinierte Infrastruktur (SDI). Sie wird programmatisch und ohne menschliches Eingreifen bereitgestellt, konfiguriert, ausgeführt, gewartet und bei Bedarf „deaktiviert“.
Diese Virtualisierung hat zu neuen Rechenzentrumsarchitekturen wie Software-definierten Rechenzentren (SDDC) geführt, einem Serververwaltungskonzept, das Infrastrukturelemente wie Netzwerk, Speicher und Rechenleistung virtualisiert und als Service bereitstellt. Diese Funktion ermöglicht es Unternehmen, die Infrastruktur für jede Anwendung und jeden Workload zu optimieren, ohne physische Änderungen vornehmen zu müssen, was zur Leistungssteigerung und Kostenkontrolle beitragen kann. As-a-Service-Rechenzentrumsmodelle werden voraussichtlich immer beliebter werden. IDC prognostiziert, dass bis 2026 65 % der Technologiekäufer diesen Modellen den Vorzug geben werden.3
Die Kombination aus Cloud-Architektur und SDI bietet viele Vorteile für Rechenzentren und ihre Benutzer, wie zum Beispiel:
Die Virtualisierung ermöglicht es Unternehmen oder Clouds, ihre Ressourcen zu optimieren und die meisten Benutzer mit der geringsten Menge an Hardware und mit der geringsten ungenutzten oder nicht ausgelasteten Kapazität zu bedienen.
Mit SDI-Automatisierung ist die Bereitstellung neuer Infrastruktur so einfach wie das Stellen einer Anfrage in einem Self-Service-Portal.
Virtualisierte IT-Infrastrukturen lassen sich viel einfacher skalieren als traditionelle. Sogar Unternehmen mit eigenem lokalem Rechenzentrum können je nach Bedarf Kapazitäten hinzufügen, wenn sie Workloads in die Cloud verlagern.
Unternehmen und Clouds bieten den Anwendern eine Reihe von Möglichkeiten, wie IT eingesetzt und bereitgestellt wird, und das alles über dieselbe Infrastruktur. Die Entscheidungen basieren auf den Workload-Anforderungen und umfassen Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS) und mehr. CSPs bieten diese Services zur Nutzung in einem privaten Rechenzentrum vor Ort oder als Cloud-Lösungen in einer Private Cloud, Public Cloud, Hybrid Cloud oder Multicloud an.
Zu den weiteren Datenlösungen gehören modulare Rechenzentren – vorgefertigte Einrichtungen, die für die Nutzung als Rechenzentren konzipiert sind und über vorinstallierte Rohrleitungen und die erforderliche Kühltechnik verfügen.
Containerisierung und serverloses Computing sowie ein robustes Open-Source-Ökosystem ermöglichen und beschleunigen DevOps-Zyklen und die Anwendungsmodernisierung. Darüber hinaus lassen sich Apps einmal erstellen und dann überall bereitstellen.
Server sind leistungsstarke Computer, die Anwendungen, Services und Daten auf Endbenutzergeräten bereitstellen. Rechenzentrumsserver gibt es in verschiedenen Formfaktoren:
Die Wahl des Server-Formfaktors hängt von vielen Aspekten ab, darunter dem verfügbaren Platz im Rechenzentrum, den auf den Servern ausgeführten Workloads, der verfügbaren Leistung und den Kosten.
Die meisten Server verfügen über eine lokale Speicherfunktion, einen sogenannten Direct-Attached Storage (DAS), damit die am häufigsten verwendeten Daten (Hot Data) in der Nähe der CPU verbleiben können.
Zwei weitere Speicherkonfigurationen für Rechenzentren sind Network Attached Storage (NAS) und ein Storage Area Network (SAN).
NAS umfasst Datenspeicher und Datenzugriff auf mehrere Server über eine Standard-Ethernetverbindung. Das NAS-Gerät ist in der Regel ein dedizierter Server mit verschiedenen Speichermedien wie Festplatten (HDDs) oder Solid-State-Laufwerken (SSDs).
Wie NAS ermöglicht ein SAN die gemeinsame Nutzung von Speicherplatz, verwendet aber ein separates Netzwerk für die Daten und besteht aus einer komplexeren Mischung aus mehreren Speicherservern, Anwendungsservern und Speicherverwaltungssoftware.
Ein einziges Rechenzentrum kann alle drei Speicherkonfigurationen – DAS, NAS und SAN – sowie die Typen Dateispeicher, Blockspeicher und Objektspeicher verwenden.
Netzwerk-Topologie bezieht sich im Rechenzentrum auf die physische Anordnung und Vernetzung der Netzwerkgeräte, einschließlich Infrastruktur, Verbindungen zwischen Servern und Komponenten sowie Datenfluss.
Das Netzwerk des Rechenzentrums besteht aus verschiedenen Netzwerkgeräten wie Switches, Routern und Glasfaseroptik, die den Netzwerkverkehr zwischen den Servern (als Ost-/West-Verkehr bezeichnet) und zu oder von den Servern zu den Clients (als Nord-/Süd-Verkehr bezeichnet) leiten.
Wie bereits erwähnt, werden die Netzwerkdienste eines Rechenzentrums in der Regel virtualisiert. Diese Fähigkeit ermöglicht die Erstellung von softwaredefinierten Overlay-Netzwerken, die auf der physischen Infrastruktur des Netzwerks aufbauen, um spezifische Sicherheitskontrollen oder Service-Level-Vereinbarungen (SLAs) zu erfüllen.
Rechenzentren benötigen Verbindungen mit hoher Bandbreite, um die Kommunikation zwischen Servern und Speichersystemen sowie zwischen eingehendem und ausgehendem Netzwerkverkehr zu ermöglichen. Für Hyperscale-Rechenzentren können die Bandbreitenanforderungen zwischen mehreren Gigabit pro Sekunde (Gbps) und Terabit pro Sekunde (Tbps) liegen.
Rechenzentren müssen auf jeder Ebene ständig verfügbar sein. Die meisten Server verfügen über duale Stromversorgungen. Batteriebetriebene unterbrechungsfreie Stromversorgungen (USV) schützen vor Überspannung und kurzen Stromausfällen. Leistungsstarke Generatoren können bei einem schwereren Stromausfall zum Einsatz kommen.
Die Kabelführung ist ein wichtiger Aspekt bei der Gestaltung von Rechenzentren, da verschiedene Kabel Tausende von Servern verbinden. Liegen die Kabel zu nahe beieinander, kann es zu Übersprechen kommen, was die Datenübertragungsraten und die Signalübertragung beeinträchtigen kann. Werden zu viele Kabel zusammengepackt, können sie außerdem übermäßige Wärme erzeugen. Bei Bau und Erweiterung von Rechenzentren müssen Baunormen und Branchenstandards berücksichtigt werden, um eine effiziente und sichere Verkabelung zu gewährleisten.
Ausfallzeiten eines Rechenzentrums sind für Dienstanbieter und Kunden kostspielig. Betreiber und Architekten von Rechenzentren unternehmen große Anstrengungen, um die Ausfallsicherheit ihrer Systeme zu erhöhen. Diese Maßnahmen umfassen alles von RAIDs (redundante Arrays unabhängiger Festplatten) zum Schutz vor Datenverlust oder -beschädigung bei Ausfällen von Speichermedien. Weitere Maßnahmen betreffen die Kühlung der Infrastruktur des Backup-Rechenzentrums, die dafür sorgt, dass die Server auch bei einem Ausfall des primären Kühlsystems bei optimalen Temperaturen laufen.
Viele große Rechenzentrumsanbieter betreiben Rechenzentren in unterschiedlichen geografischen Regionen. Wenn es in einer Region zu einer Naturkatastrophe oder politischen Unruhen kommt, können die Vorgänge für unterbrechungsfreie Dienste in eine andere Region verlagert werden.
Das Uptime Institute verwendet ein vierstufiges System, um die Redundanz und Ausfallsicherheit von Rechenzentren zu bewerten.4
Rechenzentren sind so konzipiert und ausgestattet, dass sie miteinander zusammenhängende Umweltfaktoren kontrollieren können, die Hardware beschädigen oder zerstören und zu teuren oder katastrophalen Ausfallzeiten führen können.
Rechenzentren enthalten sensible Informationen und geschäftskritische Anwendungen, die eine umfassende Sicherheitsstrategie erfordern, die physische Rechenzentren und Multicloud-Umgebungen umfasst.
Die Sicherheitsmaßnahmen für Rechenzentren umfassen die physische Sicherheit von Hardware und Speichergeräten sowie Verwaltungs- und Zugangskontrollen. Sie decken auch die Sicherheit von Softwareanwendungen sowie organisatorische Richtlinien und Verfahren ab. Hyperscale-Rechenzentren benötigen beispielsweise spezielle Firewalls und andere Protokolle für eine verbesserte Cybersicherheit.
Die Verwaltung von Rechenzentren umfasst die Aufgaben und Tools, die Unternehmen benötigen, um ihre privaten Rechenzentren betriebsbereit, sicher und konform zu halten. Die Person, die für die Ausführung dieser Aufgaben verantwortlich ist, wird als Rechenzentrumsmanager bezeichnet.
Ein Rechenzentrumsmanager führt allgemeine Wartungsarbeiten durch, wie z. B. Software- und Hardware-Upgrades, allgemeine Reinigungsarbeiten oder die Entscheidung über die physische Anordnung der Server. Sie ergreifen auch proaktive oder reaktive Maßnahmen gegen jede Bedrohung oder jedes Ereignis, das dem Rechenzentrum schadet.
Rechenzentrumsmanager in Unternehmen können Lösungen für das Rechenzentrumsinfrastrukturmanagement (DCIM) nutzen, um die allgemeine Verwaltung zu vereinfachen und die IT-Leistung zu optimieren. Diese Softwarelösungen bieten eine zentralisierte Plattform für Rechenzentrumsmanager, um alle Elemente des Rechenzentrums in Echtzeit zu überwachen, zu messen, zu verwalten und zu steuern. Dies umfasst alles von lokalen IT-Komponenten bis hin zu Einrichtungen wie Heizung, Kühlung und Beleuchtung.
Nachhaltigkeit im Geschäftsbetrieb ist ein entscheidender Bestandteil der Umwelt-, Sozial- und Governance-Praktiken (ESG). Gartner berichtet, dass 87 % der Führungskräfte planen, in den kommenden Jahren mehr Nachhaltigkeit zu investieren. 5 Daher steht die Reduzierung der Umweltauswirkungen von Rechenzentren im Einklang mit den umfassenderen Geschäftszielen im Rahmen der weltweiten Bemühungen zur Bekämpfung des Klimawandels.
Die heutige Verbreitung von KI-gesteuerten Workloads treibt das Wachstum von Rechenzentren voran. Goldman Sachs Research schätzt, dass der Strombedarf von Rechenzentren bis 2030 um 160 % steigen wird.5
Die Notwendigkeit, den Stromverbrauch zu senken, veranlasst Unternehmen dazu, auf Lösungen für erneuerbare Energien zu setzen, um ihre Hyperscale-Rechenzentren mit Strom zu versorgen. Diese Entwicklung hat zum Wachstum von grünen Rechenzentren oder nachhaltigen Rechenzentren geführt. Hier handelt es sich um Einrichtungen, die IT-Infrastruktur beherbergen und energieeffiziente Technologien einsetzen, um den Energieverbrauch zu optimieren und die Umweltbelastung zu minimieren.
Durch den Einsatz von Technologien wie Virtualisierung, energieeffizienter Hardware und erneuerbaren Energiequellen in Rechenzentren können Unternehmen ihren Energieverbrauch optimieren, Abfall reduzieren und Geld sparen. Zertifizierungen spielen eine entscheidende Rolle bei der Anerkennung und Förderung nachhaltiger Praktiken in Rechenzentren. Zu den nennenswerten Zertifizierungen und Vereinigungen gehören Leadership in Energy and Environmental Design (LEED), Energy Star und Green Grid.
Erfahren Sie, wie ein offener Data-Lakehouse-Ansatz vertrauenswürdige Daten und eine schnellere Durchführung von Analysen und KI-Projekten ermöglichen kann.
IBM wurde im 2024 Gartner Magic Quadrant for Data Integration Tools zum 19. Mal in Folge als ein führender Anbieter im Bereich Datenintegrationstools genannt.
Erkunden Sie den Leitfaden für Datenexperten zum Aufbau eines datengestützten Unternehmens und zur Förderung von geschäftlichen Vorteilen.
Erfahren Sie, warum KI-gestützte Datenintelligenz und Datenintegration entscheidend sind, um die Bereitschaft für strukturierte und unstrukturierte Daten zu fördern und KI-Ergebnisse zu beschleunigen.
Entwerfen Sie eine Datenstrategie, die Datensilos beseitigt, die Komplexität reduziert und die Datenqualität verbessert, um außergewöhnliche Kunden- und Mitarbeitererfahrungen zu schaffen.
Watsonx.data ermöglicht es Ihnen, Analysen und KI mit all Ihren Daten zu skalieren, unabhängig davon, wo sie sich befinden, und zwar über einen offenen, hybriden und kontrollierten Datenspeicher.
Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting und bauen Sie ein erkenntnisgesteuertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.
1 „Google: The Dalles, OR Data Center”, DataCenters.com.
2 „Investing in the rising data center economy“, McKinsey & Company, 17. Januar 2023
3 „IDC FutureScape: Worldwide Future of Digital Infrastructure 2023 Predictions“, Mary Johnston Turner, IDC, 9. Dezember 2022.
4 „Tier Classification System“, Uptime Institute.
5 „AI is poised to drive 160% increase in data center power demand“, Goldman Sachs Research, 14. Mai 2024.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io