Startseite topics Hyperscale Was ist Hyperscale?
IBM Storage Scale System erkunden Abonnieren Sie Updates zum Thema Cloud
Server in einem Hyperscaler

Veröffentlicht: 12. März 2024
Mitwirkende: Phill Powell, Ian Smalley

Was ist Hyperscale?

Hyperscale ist eine Distributed Computing Environment und Architektur, die auf extreme Skalierbarkeit ausgelegt ist, um Workloads in großem Umfang zu bewältigen. Der verwandte Begriff „Hyperscaler“ bezieht sich auf Hyperscale-Rechenzentren, die deutlich größer sind als herkömmliche lokale Rechenzentren.

Für alle, die in der IT-Branche tägig sind, ist eine Sache klar: Es gibt ganz normale Jobs und dann gibt es Projekte, deren Größenordnung die normalen Bedürfnisse übersteigt. Diese übergroßen Fälle erfordern eine umfassende Herangehensweise und ein erweitertes Augenmaß. Kurz gesagt, sie benötigen die speziellen Fähigkeiten, die durch Hyperscale-Computing ermöglicht werden.

Hyperscale Computing ist das Gegenstück zur Nutzung standardmäßiger Unternehmensrechenzentren. Beim Hyperscale Computing bauen Unternehmen große und nahezu unendlich skalierbare Datenbanken auf bzw. unterstützen den Aufbau solcher Datenbanken.

Mehr speichern mit einer globalen Datenplattform

Mehr über die Global Data Platform von IBM – entwickelt, damit alle überall auf alles zugreifen können.

Ähnliche Inhalte

IBM Newsletter abonnieren

Von Rechenzentren zu Hyperscalern

Hyperscale-Technologien stellen eine grundlegende Veränderung in der Art und Weise dar, wie der tägliche Fluss und das Volumen der von Unternehmen generierten Daten verarbeitet werden können.

Heute scheint es fast unmöglich, sich das vorzustellen, aber es gab eine Zeit, in der das gesamte Rechenzentrum eines Unternehmens von einem einzelnen Server in einem Büroschrank aus betrieben werden konnte.

Dann kamen Hypervisors, deren Verwendung als Abstraktionsschichten es ermöglichte, Anwendungen in Virtual Machines (VMs) von einer physischen Hardwareinstallation auf eine andere zu verlagern – ein entscheidender Moment für den Aufstieg von Hyperscale-Rechenzentren.

In den meisten Fällen können die ursprünglichen, lokalen Rechenzentren das heute generierte Datenvolumen, insbesondere bei hyperskalierten Anwendungen, einfach nicht mehr bewältigen.

Hyperscale-Rechenzentren (auch Hyperscaler genannt) benötigen erheblich mehr Platz als herkömmliche lokale Rechenzentren, deren Größe in der Regel im Bereich von 930 Quadratmetern liegt.

Nach der IDC-Definition eines Hyperscalers (Link befindet sich außerhalb von ibm.com) muss ein Unternehmen mindestens 5.000 Server einsetzen und mindestens 930 Quadratmeter für den Betrieb bereitstellen, um als echter Hyperscaler zu gelten.

Hyperscale-Einrichtungen gehen oft um ein Vielfaches darüber hinaus – wobei die Gebäudegrößen Ausmaße von über 5.500 Quadratmetern erreichen – was in etwa der Größe eines US-Footballfeldes entspricht.

Und obwohl dies eine typische Hyperscale-Größe sein mag, ist es nicht annähernd das größte Beispiel für Speicheroptionen. Diese Abgrenzung bezieht sich auf das große Rechenzentrum von China Telecom (Link befindet sich außerhalb von ibm.com) in Horinger, Hohhot, in der chinesischen Region der Inneren Mongolei. Diese Anlage, deren Bau 3 Mrd. USD gekostet hat, umfasst eine Fläche von einer knappen Million Quadratmetern und verbraucht 150 Megawatt Strom. (Um sich eine Anlage dieser Größenordnung vorzustellen, genügt es, sich die Fläche von etwa 165 nebeneinander liegenden Fußballfeldern vorzustellen).

Wie funktionieren Hyperscaler?

Hyperscaler, eine Weiterentwicklung des Hyperscale Computing, sind Hyperscale-Rechenzentren, die hauptsächlich für die Bereitstellung und Verwaltung von Anwendungen in Megagröße eingesetzt werden.

Hyperscaler kann man sich weitgehend so vorstellen wie herkömmliche Rechenzentren, allerdings sind sie auf eine viel größere Größenordnung ausgelegt als typische lokale Rechenzentren. Dies wird durch den Aufbau und Betrieb einer enormen Hardware- und Software-Infrastruktur in den Hyperscaler-Einrichtungen erzielt. Millionen von Servern, verteilt auf mehrere Rechenzentren, bieten scheinbar endlose Speicher- und Rechenressourcen.

Da der Datenverkehr stark schwanken kann – insbesondere bei der Ausführung riesiger Anwendungen – bewältigen Hyperscaler diesen Datenverkehr und stabilisieren den Hyperscale-Betrieb, wenn in einer Computing-Umgebung ein erhöhter Bedarf besteht. Hyperscaler erledigen dies, indem sie als eine Art Lastverteiler dienen, Aufgaben jonglieren und Rechenressourcen nach Bedarf umleiten.

Vorteile von Hyperscale

Einige Unternehmen sind aufgrund der Einstiegskosten und anderer damit verbundener Kosten nicht wirklich bereit, die Vorteile der Hyperscale-Technologie zu nutzen. Für die meisten Unternehmen überwiegen jedoch die positiven Aspekte bei weitem im Vergleich zu den Kosten.

Verwaltete Rechenzentren

Die Virtualisierung ermöglicht Cloud Computing, und CSPs hosten Hyperscale-Rechenzentren, um den vielfältigen Einsatzmöglichkeiten von Cloud Computing und den damit generierten Daten gerecht zu werden. Mittlerweile sind Benutzer nicht mehr mit den vielen Details und gelegentlichen operativen Schwachstellen im Zusammenhang mit dem Betrieb eines lokalen Rechenzentrums konfrontiert; sie agieren stattdessen über Programmierschnittstellen (APIs) mit den erforderlichen Cloud-Ressourcen.

Entwickelt für große Aufgaben

Die Hyperscale-Infrastruktur, die dem Hyperscale-Computing zugrunde liegt, fördert sowohl hohe Leistungen als auch Redundanz und macht Hyperscale-Projekte zur perfekten Wahl für Cloud-Computing-Aktivitäten und die Verarbeitung großer Datenmengen.

Effizienz

Da die Hyperscale-Infrastruktur speziell für die effiziente Handhabung von Hyperscale-Zwecken konzipiert ist, kann sie die Kosteneffizienz des Betriebs steigern, selbst bei der Handhabung riesiger Workloads.

Verbesserte Vernetzung

Es nützt wenig, eine Serverfarm aufzubauen, es sei denn, die Server dort verfügen über eine starke, blitzschnelle Konnektivität (mit geringer Latenz), sodass diese Server effektiv miteinander kommunizieren können. Hyperscaler bieten genau das.

Führende Hyperscale-Anbieter

Der Hyperscale-Markt wird derzeit von den „Big Five“ der Public-Cloud-Provider dominiert, wobei jeder dieser Cloud-Service-Provider (CSP) seine eigenen Stärken besitzt.

Amazon Web Services (AWS)

Im ersten Quartal 2023 erreichte AWS einen Marktanteil von 32 % (Link befindet sich außerhalb von ibm.com) und gilt damit als größter Anbieter von Hyperscale-Cloud-Services. Die Produkte rund um die Cloud konzentrieren sich auf Aspekte wie Speicheroptionen, Rechenleistung, Automatisierung, Datenbanken und Datenanalyse.

Microsoft Azure

Viele Unternehmen verwenden bereits die einen oder anderen Microsoft-Produkte, sodass sie wahrscheinlich bereits ein gewisses Maß an Vertrauen in das Unternehmen und seine Angebote haben. Dazu gehört auch die Unternehmenssoftware von Microsoft, die sich gut in das Hyperscale-Produkt Microsoft Azure integrieren lässt. (Marktanteil: 23 %)

Google Cloud Platform (GCP)

Google ist ein mächtiger Konzern geworden, da das Unternehmen die Datenverarbeitung beherrscht. Unternehmen nutzen immer noch GCP (etwa 10 % des Marktes), insbesondere wenn fortschrittliche Analysen und der Ausbau der Präsenz im Bereich künstliche Intelligenz (KI) im Vordergrund stehen.

IBM Cloud

IBM Cloud ist seit langem im Bereich der Technologie tätig und nutzt die Expertise des Unternehmens in vielen Bereichen wie KI und dem Umgang mit Unternehmensrechenzentren. IBM Cloud bietet umfassende Services für Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS).

Oracle Cloud Infrastructure (OCI)

Zu den Vorteilen von OCI gehören die einfache Migration entscheidender Unternehmens-Workloads und die Möglichkeit, cloudnative Anwendungen zu erstellen. Ein weiteres Verkaufsargument für OCI sind die extrem niedrigen Preise. Oracle wirbt damit, dass es dieselben grundlegenden Dienste wie AWS zu einem Bruchteil der Kosten anbietet.

Wie unterscheiden sich die „Big Five“?

Die kurze Zusammenfassung legt nahe, dass sich AWS durch seinen globalen Zugriff und seine fortschrittliche Skalierbarkeit auszeichnet. GCP ist für Unternehmen attraktiv, die eine erstklassige Datenverwaltung benötigen und Funktionen wie maschinelles Lernen vorantreiben möchten. Microsoft Azure bietet eine reibungslose Produktintegration und verbesserte Sicherheit.

Abgesehen von den drei größten Anbietern weckt IBM Cloud mit seiner aktuellen Arbeit im Bereich der künstlichen Intelligenz, die in seine Hyperscale-Angebote einfließt, erhebliches Interesse. Und Oracle bietet OCI als Plattform an, die darauf ausgelegt ist, Kosten zu sparen und cloudnative Anwendungen zu hosten.

Es ist offensichtlich, dass sich jeder dieser Anbieter in seinem Ansatz und in seinen jeweiligen Fachgebieten erheblich unterscheidet, doch sie alle haben gewisse Dinge gemeinsam. So bieten beispielsweise die drei führenden Anbieter inzwischen cloudnative Dienste an, die Zero-Trust Network Access (ZTNA) Protokolle unterstützen. Diese bieten eine Alternative zu VPNs, bei denen Sicherheitslücken auftreten können.

Die Wirtschaftlichkeit von Hyperscale

Unternehmen gehen mit unterschiedlichen Strategien an die Aushandlung ihrer Hyperscale-Anforderungen heran. 

Nicht alle Unternehmen können sich die erheblichen finanziellen Investitionen leisten, die für die Einrichtung komplexer Hyperscaler erforderlich sind, oder wollen eine solche finanzielle Verpflichtung eingehen. Denken Sie daran, dass wir nicht nur über die Baukosten sprechen. Es sind auch massive Anschaffungen von Ausrüstung zu berücksichtigen.

Es wurde außerdem beobachtet, dass einige Hyperscale-Anlagen mehr Strom verbrauchen als ganze Kleinstädte. Daher müssen in der Regel auch Stromkosten und Umweltaspekte in die Strategie des Unternehmens hinsichtlich des Einsatzes von Hyperscalern einbezogen werden.

Als Alternative zum Kauf von Geräten betreiben einige Unternehmen immer noch die Praxis des Server-Housing, bei der stattdessen Server oder andere Computerausrüstungen gemietet werden.

Auch auf Geräte des Internets der Dinge (IoT) und ihre Verwaltung haben Hyperscaler Einfluss. Die Tatsache, dass Hyperscale-Clouds (in vielen Fällen) in Verbindung mit bereits vorhandener Ausrüstung verwendet werden, trägt dazu bei, die Kosten für Infrastrukturinvestitionen für das IoT-Ökosystem zu senken – wodurch sie für Unternehmen rentabler sind.

Weiterführende Lösungen
IBM Storage Scale System

Entdecken Sie die einfachste Möglichkeit für das Deployment von IBM Storage Scale mit einer Leistung und Kapazität, die sich von 1 auf mehr als 1000 Knoten skalieren lässt.

IBM Storage Scale erkunden

Lösungen für IBM Storage Area Network (SAN)

Aktualisieren Sie Ihre Speicherinfrastruktur mit IBM SAN Switches vom Typ B und Typ C und reduzieren Sie Ihre Gesamtbetriebskosten.

IBM Storage Area Network (SAN) Lösungen erkunden

IBM Consulting Cloud Accelerator

Beschleunigen Sie die Einführung der IBM Cloud-Plattform mit einem Accelerator, der eine Vielzahl von Anwendungen und Zielzonen unterstützt.

IBM Consulting Cloud Accelerator erkunden
IBM Storage

Bringen Sie beide Seiten der Datenspeichergleichung in Einklang, indem Sie IBM Software (wie IBM FlashSystem) und IBM Hardwarelösungen verwenden.

IBM Storage erkunden

Ressourcen Was ist ein Storage Area Network (SAN)?

Ein Storage Area Network (SAN) ist ein dediziertes Netzwerk, das auf eine bestimmte Umgebung zugeschnitten ist und Server, Speichersysteme, Networking-Switches, Software und Dienste miteinander verbindet.

Was ist ein Rechenzentrum?

Ein Rechenzentrum ist ein physischer Raum, ein Gebäude oder eine Einrichtung, in der die IT-Infrastruktur zum Erstellen, Ausführen und Bereitstellen von Anwendungen und Diensten sowie zum Speichern und Verwalten der mit diesen Anwendungen und Diensten verbundenen Daten untergebracht ist.

Was ist Objektspeicher?

Object Storage ist eine Datenspeicherarchitektur, die sich ideal für die Speicherung, Archivierung, Sicherung und Verwaltung statischer unstrukturierter Daten eignet – zuverlässig, effizient und kostengünstig.

Was ist Datenspeicher?

Datenspeicher beziehen sich auf magnetische, optische oder mechanische Medien, die digitale Informationen für laufende oder zukünftige Operationen aufzeichnen und aufbewahren.

Was ist IT-Infrastruktur?

IT-Infrastruktur bezieht sich auf die kombinierten Komponenten, die für den Betrieb und die Verwaltung von IT-Services und IT-Umgebungen eines Unternehmens erforderlich sind.

Was ist Latenz?

Latenz ist die Messung der Verzögerung in einem System. Die Netzwerklatenz ist die Zeit, die Daten benötigen, um in einem Netzwerk von einem Punkt zum anderen zu gelangen.

Machen Sie den nächsten Schritt

Hyperscale bietet mit Blick auf Speicherprobleme eine neue Dimension und eröffnet völlig neue Möglichkeiten. Erfahren Sie, wie Sie diese leistungsstarke neue Funktion mit IBM Storage Scale am besten in Ihrem Unternehmen nutzen können.

IBM Storage Scale erkunden