Was ist High-Performance Computing (HPC)?
HPC verarbeitet riesige Datenmengen und löst die komplexesten Datenverarbeitungsprobleme von heute in Echtzeit oder nahezu Echtzeit.
Nahaufnahme der Elektronik
Was ist HPC?

HPC ist eine Technologie, die Cluster leistungsfähiger Prozessoren nutzt, die gleichzeitig ausgeführt werden, um umfangreiche mehrdimensionale Datensätze (Big Data) zu verarbeiten und komplexe Probleme mit extrem hoher Geschwindigkeit zu lösen. HPC-Systeme werden normalerweise mit Geschwindigkeiten ausgeführt, die mehr als eine Million Mal schneller sind als die schnellsten Standard-Desktops, -Laptops oder -Server.

Jahrzehntelang war das Konzept des HPC-Systems der Supercomputer, ein spezialisierter Computer, der Millionen von Prozessoren oder Prozessorkernen enthält. Es gibt nach wie vor Supercomputer. Zum Zeitpunkt des Verfassens dieser Dokumentation ist der schnellste Supercomputer der US-basierte Frontier  (Link befindet sich außerhalb von  ibm.com), mit einer Verarbeitungsgeschwindigkeit von 1.102 Exaflops oder einer Trillion Gleitkommaoperationen pro Sekunde (Flops). Aber heute betreiben immer mehr Unternehmen HPC-Lösungen auf Clustern von Hochgeschwindigkeitscomputerservern, die per Hosting vor Ort oder in der Cloud bereitgestellt werden.

HPC-Workloads legen wichtige neue Erkenntnisse offen, die menschliches Wissen voranbringen und einen erheblichen Wettbewerbsvorteil schaffen. Beispielsweise wird HPC verwendet, um DNA zu sequenzieren, den Aktienhandel zu automatisieren und Algorithmen und Simulationen künstlicher Intelligenz (KI) auszuführen – wie die, die selbstfahrende Autos ermöglichen. Dafür werden mehrere Terabyte von Daten von IoT-Sensoren, Radar- und GPS-Systemen in Echtzeit analysiert, um Entscheidungen in Sekundenbruchteilen zu treffen.

Wie funktioniert HPC?

Ein Standard-IT-System löst Probleme in erster Linie durch Serial Computing – die Workload wird in eine Abfolge von Aufgaben aufgeteilt und führt dann die Aufgaben nacheinander auf demselben Prozessor aus.

Im Gegensatz dazu nutzt HPC

  • Massively Parallel Computing. Beim Parallel Computing werden mehrere Aufgaben gleichzeitig auf mehreren Computerservern oder -prozessoren ausgeführt. Massively Parallel Computing ist Parallel Computing unter Verwendung von Zehntausenden bis Millionen von Prozessoren oder Prozessorkernen.

  • Computer-Cluster (auch HPC-Cluster genannt). Ein HPC-Cluster besteht aus mehreren Hochgeschwindigkeitscomputerservern, die miteinander vernetzt sind, mit einem zentralen Scheduler, der die Parallel-Computing-Workload verwaltet. Die Computer, Knoten genannt, verwenden entweder leistungsfähige CPUs mit mehreren Kernen oder, heute wahrscheinlicher, GPUs (Graphical Processing Units), die sich gut für präzise mathematische Berechnungen, Modelle für maschinelles Lernen und grafikintensive Aufgaben eignen. Ein einziges HPC-Cluster kann 100.000 oder mehr Knoten umfassen.

  • Leistungsfähige Komponenten: Alle anderen IT-Ressourcen in einem HPC-Cluster – Netz-, Hauptspeicher-, Speicher- und Dateisysteme – sind leistungsfähige Komponenten mit hohem Durchsatz und niedriger Latenz, die mit den Knoten Schritt halten können und die Rechenleistung und den Durchsatz des Clusters optimieren.
HPC und Cloud Computing

Noch vor einem Jahrzehnt war HPC aufgrund der hohen Kosten – die Besitz oder Leasing eines Supercomputers oder Erstellung und Hosting eines HPC-Clusters in einem lokalen Rechenzentrum umfassten – für die meisten Unternehmen unerreichbar.

Heute bietet HPC in der Cloud – manchmal auch HPC as a Service oder HPCaaS genannt – eine deutlich schnellere, skalierbarere und kosteneffizientere Möglichkeit für Unternehmen, von HPC zu profitieren. HPCaaS umfasst normalerweise Zugriff auf HPC-Cluster und Infrastruktur, die im Rechenzentrum eines Cloud-Service-Providers per Hosting zur Verfügung gestellt werden, sowie Funktionen des Ökosystems (wie KI und Datenanalyse) und HPC-Fachwissen.

Heute wird HPC in der Cloud von drei konvergierenden Trends unterstützt:

  • Steigende Nachfrage. Unternehmen in allen Branchen werden zunehmend abhängiger von den echtzeitorientierten Erkenntnissen und Wettbewerbsvorteilen, die sich aus der Lösung der komplexen Probleme ergeben, die nur HPC-Apps lösen können. Zum Beispiel stützt sich die Kreditkartenbetrugserkennung – etwas, auf das sich praktisch alle von uns verlassen und das die meisten von uns schon einmal erlebt haben – zunehmend auf HPC, um Betrug schneller aufzudecken und lästige falsche Alarme zu reduzieren, auch wenn Betrugsaktivitäten zunehmen und sich die Taktiken der Betrüger ständig ändern.

  • Verbreitung von RDMA-Netzbetrieb mit niedrigerer Latenz und höherem Durchsatz. RDMA – Remote Direct Memory Access – ermöglicht es einem vernetzten Computer, auf den Speicher eines anderen vernetzten Computers zuzugreifen, ohne das Betriebssystem eines der Computer einzubeziehen oder die Verarbeitung eines der Computer zu unterbrechen. Dies trägt dazu bei, Latenz zu minimieren und Durchsatz zu maximieren. Aufkommende leistungsfähige RDMA-Fabrics – einschließlich Infiniband, Virtual Interface Architecture und RDMA over Converged Ethernet (RoCE) – machen Cloud-basiertes HPC im Wesentlichen möglich.

  • Weit verbreitete HPCaaS-Verfügbarkeit über Public- und Private-Clouds. Heute bietet jeder führende Public-Cloud-Service-Provider HPC-Services an. Und während einige Unternehmen weiterhin stark regulierte oder sensible HPC-Workloads lokal ausführen, nutzen viele Private-Cloud-HPC-Lösungen, die von Hardware- und Lösungsanbietern angeboten werden, oder migrieren darauf. 
HPC-Anwendungsfälle

HPC-Anwendungen sind zum Synonym für KI-Apps im Allgemeinen und für Apps für maschinelles Lernen und Deep Learning im Besonderen geworden; heutzutage werden die meisten HPC-Systeme unter Berücksichtigung dieser Workloads erstellt. Diese HPC-Anwendungen fördern fortlaufende Innovation in:

Gesundheitswesen, Genomforschung und Biowissenschaften. Der erste Versuch, ein menschliches Genom zu sequenzieren, dauerte 13 Jahre; heute erledigen HPC-Systeme dies an weniger als einem Tag. Weitere HPC-Anwendungen in Gesundheitswesen und Biowissenschaften umfassen Entdeckung und Entwicklung von Arzneimitteln, schnelle Krebsdiagnose und Molekularmodellierung.

Finanzdienstleistungen. Neben automatisiertem Handel und Betrugserkennung (wie oben erwähnt) unterstützt HPC Anwendungen in der Monte-Carlo-Simulation und andere Risikoanalysemethoden.

Öffentlicher Sektor und Verteidigung. Zwei zunehmende HPC-Anwendungsfälle in diesem Bereich sind Wettervorhersage und Klimamodellierung, die beide die Verarbeitung riesiger Mengen meteorologischer Langzeitdaten und Millionen täglicher Änderungen bei klimabezogenen Datenpunkten umfassen. Sonstige Anwendungen für öffentlichen Sektor und Verteidigung schließen Energieforschung und Geheimdienstarbeit ein.

Energie. Teils mit Überschneidungen mit öffentlichem Sektor und Verteidigung umfassen energiebezogene HPC-Anwendungen die Verarbeitung seismischer Daten, Simulation und Modellierung von Reservoirs, geografisch-räumliche Analyse, Windsimulation und Geländezuordnung.

Relevante Lösungen
Hochleistungsrechnen in der IBM Cloud

Unabhängig davon, ob Ihre Arbeitslast eine hybride Cloud-Umgebung oder eine Cloud-Umgebung erfordert, bietet IBM Cloud die Hochleistungsrechnen-Lösung, die Ihren Anforderungen entspricht.

Entdecken Sie HPC in der IBM Cloud
KI-Infrastruktur

Um die heutigen Herausforderungen zu meistern und sich auf die Zukunft vorzubereiten, benötigen Sie IBM KI-Lösungen, die sich in Ihre Infrastruktur und Datenstrategie integrieren lassen.

Entdecken Sie KI-Infrastrukturlösungen
HPC-Workload-Management

Das Portfolio von IBM Spectrum® LSF Suites definiert die Clustervirtualisierung und das Workload-Management neu, indem es eine integrierte Lösung für geschäftskritische HPC-Umgebungen bereitstellt.

Informieren Sie sich über HPC-Datenverarbeitungsserver und -speicher
Quantencomputing-Systeme

IBM ist derzeit das einzige Unternehmen, das die gesamte Palette der Quantentechnologie mit modernster Hardware, integrierten Systemen und Cloud-Services anbietet.

Entdecken Sie Quantencomputing-Systeme
Ressourcen Geschichte des Supercomputing bei IBM

IBM kann auf eine lange Geschichte im Bereich des Supercomputing zurückblicken und gilt als Pionier auf diesem Gebiet, mit Highlights wie dem Apollo-Programm, Deep Blue, Watson und anderen.

Das Neueste zum Thema Hochleistungsrechnen

Erhalten Sie die neuesten HPC-Informationen, Nachrichten und technischen Blogbeiträge.

Fahrplan für den Aufbau eines offenen Quantensoftware-Ökosystems

Das Quantencomputing steht kurz davor, einen Paradigmenwechsel herbeizuführen. Software, die auf dieser neu entstehenden, in den physikalischen Gesetzen der Natur wurzelnden Technologie beruht, könnte schon bald die Datenverarbeitung für immer revolutionieren.