Was ist Hyperscale?

Luftaufnahme der Lehmklippe von Omarama

Autoren

Phill Powell

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

Was ist Hyperscale?

Hyperscale ist eine Distributed Computing Environment und Architektur, die auf extreme Skalierbarkeit ausgelegt ist, um Workloads in großem Umfang zu bewältigen. Der verwandte Begriff „Hyperscaler“ bezieht sich auf Hyperscale-Rechenzentren, die deutlich größer sind als herkömmliche lokale Rechenzentren.

Für alle, die in der IT-Branche tägig sind, ist eine Sache klar: Es gibt ganz normale Jobs und dann gibt es Projekte, deren Größenordnung die normalen Bedürfnisse übersteigt. Diese übergroßen Fälle erfordern eine umfassende Herangehensweise und ein erweitertes Augenmaß. Kurz gesagt, sie benötigen die speziellen Fähigkeiten, die durch Hyperscale-Computing ermöglicht werden.

Hyperscale Computing ist das Gegenstück zur Nutzung standardmäßiger Unternehmensrechenzentren. Beim Hyperscale Computing bauen Unternehmen große und nahezu unendlich skalierbare Datenbanken auf bzw. unterstützen den Aufbau solcher Datenbanken.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Von Rechenzentren zu Hyperscalern

Hyperscale-Technologien stellen eine grundlegende Veränderung in der Art und Weise dar, wie der tägliche Fluss und das Volumen der von Unternehmen generierten Daten verarbeitet werden können.

Heute scheint es fast unmöglich, sich das vorzustellen, aber es gab eine Zeit, in der das gesamte Rechenzentrum eines Unternehmens von einem einzelnen Server in einem Büroschrank aus betrieben werden konnte.

Dann kamen Hypervisors, deren Verwendung als Abstraktionsschichten es ermöglichte, Anwendungen in Virtual Machines (VMs) von einer physischen Hardwareinstallation auf eine andere zu verlagern. Dies war ein Schlüsselmoment für den Aufstieg von Hyperscale-Rechenzentren.

In der Regel können die ursprünglichen, lokalen Rechenzentren das heute generierte Datenvolumen, insbesondere bei hyperskalierten Anwendungen, einfach nicht mehr bewältigen.

Hyperscale-Rechenzentren (auch Hyperscaler genannt) benötigen erheblich mehr Platz als herkömmliche lokale Rechenzentren, deren Größe in der Regel im Bereich von 930 Quadratmetern liegt.

Nach der IDC-Definition eines Hyperscalers muss ein Unternehmen mindestens 5.000 Server einsetzen und mindestens 930 Quadratmeter für den Betrieb bereitstellen, um als echter Hyperscaler zu gelten.

Hyperscale-Einrichtungen gehen oft um ein Vielfaches darüber hinaus – wobei die Gebäudegrößen Ausmaße von über 5.500 Quadratmetern erreichen – was in etwa der Größe eines US-Footballfeldes entspricht.

Und obwohl dies eine typische Hyperscale-Größe sein mag, ist es nicht annähernd das größte Beispiel für Speicheroptionen. Diese Auszeichnung gehört dem großen Rechenzentrum von China Telecom in Horinger, Hohhot, in der chinesischen Region Innere Mongolei.

Diese Anlage, deren Bau 3 Mrd. USD gekostet hat, umfasst eine Fläche von einer knappen Million Quadratmetern und verbraucht 150 Megawatt Strom. (Um sich eine Anlage dieser Größenordnung vorzustellen, genügt es, sich die Fläche von etwa 165 nebeneinander liegenden Fußballfeldern vorzustellen).

High Performance Computing

Skalierbare Intel Xeon Prozessoren der 4. Generation in der IBM Cloud

Erfahren Sie mehr über das Engagement von Intel und IBM für die nächste Generation der Mikroarchitektur in der Cloud-Branche.

Wie funktionieren Hyperscaler?

Hyperscaler, eine Weiterentwicklung des Hyperscale Computing, sind Hyperscale-Rechenzentren, die hauptsächlich für die Bereitstellung und Verwaltung von Anwendungen in Megagröße eingesetzt werden.

Hyperscaler kann man sich weitgehend so vorstellen wie herkömmliche Rechenzentren, allerdings sind sie auf eine viel größere Größenordnung ausgelegt als typische lokale Rechenzentren. Dies wird durch den Aufbau und Betrieb einer enormen Hardware- und Software-Infrastruktur in den Hyperscaler-Einrichtungen erzielt. Millionen von Servern, verteilt auf mehrere Rechenzentren, bieten scheinbar endlose Speicher- und Rechenressourcen.

Da der Datenverkehr stark schwanken kann – insbesondere bei der Ausführung riesiger Anwendungen – bewältigen Hyperscaler diesen Datenverkehr und stabilisieren den Hyperscale-Betrieb, wenn in einer Computing-Umgebung ein erhöhter Bedarf besteht. Hyperscaler erledigen dies, indem sie als eine Art Lastverteiler dienen, Aufgaben jonglieren und Rechenressourcen nach Bedarf umleiten.

Vorteile von Hyperscale

Einige Unternehmen sind aufgrund der Einstiegskosten und anderer damit verbundener Kosten nicht wirklich bereit, die Vorteile der Hyperscale-Technologie zu nutzen. Für die meisten Unternehmen überwiegen jedoch die positiven Aspekte bei weitem im Vergleich zu den Kosten.

Verwaltete Rechenzentren

Die Virtualisierung ermöglicht Cloud Computing, und CSPs hosten Hyperscale-Rechenzentren, um den vielfältigen Einsatzmöglichkeiten von Cloud Computing und den damit generierten Daten gerecht zu werden. Mittlerweile sind Benutzer nicht mehr mit den vielen Details und gelegentlichen operativen Schwachstellen im Zusammenhang mit dem Betrieb eines lokalen Rechenzentrums konfrontiert; sie agieren stattdessen über Programmierschnittstellen (APIs) mit den erforderlichen Cloud-Ressourcen.

Entwickelt für große Aufgaben

Die Hyperscale-Infrastruktur, die dem Hyperscale-Computing zugrunde liegt, fördert sowohl hohe Leistungen als auch Redundanz und macht Hyperscale-Projekte zur perfekten Wahl für Cloud-Computing-Aktivitäten und die Verarbeitung großer Datenmengen.

Effizienz

Da die Hyperscale-Infrastruktur speziell für die effiziente Handhabung von Hyperscale-Zwecken konzipiert ist, kann sie die Kosteneffizienz des Betriebs steigern, selbst bei der Handhabung riesiger Workloads.

Verbesserte Vernetzung

Es nützt wenig, eine Serverfarm aufzubauen, es sei denn, die Server dort verfügen über eine starke, blitzschnelle Konnektivität (mit geringer Latenz), sodass diese Server effektiv miteinander kommunizieren können. Hyperscaler bieten genau das.

Führende Hyperscale-Anbieter

Der Hyperscale-Markt wird derzeit von den „Big Five“ der Public-Cloud-Provider dominiert, wobei jeder dieser Cloud-Service-Provider (CSP) seine eigenen Stärken besitzt.

Amazon Web Services (AWS)

Im ersten Quartal 2023 erreichte AWS einen Marktanteil von 32 % und gilt damit als größter Anbieter von Hyperscale-Cloud-Services. Die Produkte rund um die Cloud konzentrieren sich auf Aspekte wie Speicheroptionen, Rechenleistung, Automatisierung, Datenbanken und Datenanalyse.

Microsoft Azure

Viele Unternehmen verwenden bereits die einen oder anderen Microsoft-Produkte, sodass sie wahrscheinlich bereits ein gewisses Maß an Vertrauen in das Unternehmen und seine Angebote haben. Dazu gehört auch die Unternehmenssoftware von Microsoft, die sich gut in das Hyperscale-Produkt Microsoft Azure integrieren lässt. (Marktanteil: 23 %)

Google Cloud Platform (GCP)

Google ist ein mächtiger Konzern geworden, da das Unternehmen die Datenverarbeitung beherrscht. Unternehmen nutzen immer noch GCP (etwa 10 % des Marktes), insbesondere wenn fortschrittliche Analysen und der Ausbau der Präsenz im Bereich künstliche Intelligenz (KI) im Vordergrund stehen.

IBM Cloud

IBM® Cloud ist seit langem im Bereich der Technologie tätig und nutzt die Expertise des Unternehmens in vielen Bereichen wie KI und dem Umgang mit Unternehmensrechenzentren. IBM Cloud bietet umfassende Services für Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS).

Oracle Cloud Infrastructure (OCI)

Zu den Vorteilen von OCI gehören die einfache Migration entscheidender Unternehmens-Workloads und die Möglichkeit, cloudnative Anwendungen zu erstellen. Ein weiteres Verkaufsargument für OCI sind die extrem niedrigen Preise. Oracle wirbt damit, dass es dieselben grundlegenden Dienste wie AWS zu einem Bruchteil der Kosten anbietet.

Wie unterscheiden sich die „Big Five“?

Die kurze Zusammenfassung legt nahe, dass sich AWS durch seinen globalen Zugriff und seine fortschrittliche Skalierbarkeit auszeichnet. GCP ist für Unternehmen attraktiv, die eine erstklassige Datenverwaltung benötigen und Funktionen wie maschinelles Lernen vorantreiben möchten. Microsoft Azure bietet eine reibungslose Produktintegration und verbesserte Sicherheit.

Abgesehen von den drei größten Anbietern weckt IBM Cloud mit seiner aktuellen Arbeit im Bereich der künstlichen Intelligenz, die in seine Hyperscale-Angebote einfließt, erhebliches Interesse. Und Oracle bietet OCI als Plattform an, die darauf ausgelegt ist, Kosten zu sparen und cloudnative Anwendungen zu hosten.

Es ist offensichtlich, dass sich jeder dieser Anbieter in seinem Ansatz und in seinen jeweiligen Fachgebieten erheblich unterscheidet, doch sie alle haben gewisse Dinge gemeinsam. So bieten beispielsweise die drei führenden Anbieter inzwischen cloudnative Dienste an, die Zero-Trust Network Access (ZTNA) Protokolle unterstützen. Diese bieten eine Alternative zu VPNs, bei denen Sicherheitslücken auftreten können.

Die Wirtschaftlichkeit von Hyperscale

Unternehmen gehen mit unterschiedlichen Strategien an die Aushandlung ihrer Hyperscale-Anforderungen heran. 

Nicht alle Unternehmen können sich die erheblichen finanziellen Investitionen leisten, die für die Einrichtung komplexer Hyperscaler erforderlich sind, oder wollen eine solche finanzielle Verpflichtung eingehen. Denken Sie daran, dass wir nicht nur über die Baukosten sprechen. Es sind auch massive Anschaffungen von Ausrüstung zu berücksichtigen.

Es wurde außerdem beobachtet, dass einige Hyperscale-Anlagen mehr Strom verbrauchen als ganze Kleinstädte. Daher müssen in der Regel auch Stromkosten und Umweltaspekte in die Strategie des Unternehmens hinsichtlich des Einsatzes von Hyperscalern einbezogen werden.

Als Alternative zum Kauf von Geräten betreiben einige Unternehmen immer noch die Praxis des Server-Housing, bei der stattdessen Server oder andere Computerausrüstungen gemietet werden.

Auch auf Geräte des Internets der Dinge (IoT) und ihre Verwaltung haben Hyperscaler Einfluss. Die Tatsache, dass Hyperscale-Clouds (in vielen Fällen) in Verbindung mit bereits vorhandener Ausrüstung verwendet werden, trägt dazu bei, die Kosten für Infrastrukturinvestitionen für das IoT-Ökosystem zu senken – wodurch sie für Unternehmen rentabler sind.

Weiterführende Lösungen
IBM Spectrum LSF Suites 

IBM Spectrum LSF Suites ist eine Plattform für Workloadmanagement und ein Job-Scheduler für verteiltes Hochleistungscomputing (HPC).

Spectrum LSF Suites erkunden
Server- und Speicherlösungen für High Performance Computing (HPC) | IBM

Hybrid Cloud HPC-Lösungen von IBM helfen bei der Bewältigung großer, rechenintensiver Herausforderungen und beschleunigen die Erkenntnisgewinnung.

HPC-Lösungen erkunden
Lösungen für Cloud-Infrastrukturen

Finden Sie die richtige Cloud-Infrastrukturlösung für Ihre Geschäftsanforderungen und skalieren Sie Ressourcen nach Bedarf.

Cloud-Lösungen
Machen Sie den nächsten Schritt

Unterstützen Sie Ihre anspruchsvollsten KI- und rechenintensiven Workload mit den HPC-Lösungen von IBM. Nutzen Sie die Flexibilität und die hochmoderne Infrastruktur der Hybrid Cloud, um Ihren Weg zur Innovation zu beschleunigen.

HPC-Lösungen erkunden