Supercomputing ist eine Form des Hochleistungsrechnens, bei der ein leistungsstarker Computer, ein Supercomputer, für Ermittlungen oder Berechnungen verwendet wird, was die Gesamtzeit bis zur Lösung verkürzt.
Die Supercomputing-Technologie umfasst Supercomputer, die schnellsten Computer der Welt. Supercomputer bestehen aus Interconnects, I/O-Systemen, Speicher und Prozessorkernen.
Im Gegensatz zu herkömmlichen Computern verwenden Supercomputer mehr als eine zentrale Recheneinheit (CPU). Diese CPUs werden in Rechenknoten gruppiert, die aus einem Prozessor oder einer Gruppe von Prozessoren – symmetrisches Multiprocessing (SMP) – und einem Speicherblock bestehen. Was die Skalierung betrifft – ein Supercomputer kann Zehntausende von Knoten enthalten. Mit Interconnect Kommunikationsfunktionen können diese Knoten bei der Lösung eines bestimmten Problems zusammenarbeiten. Knoten nutzen außerdem Interconnects, um mit E/A-Systemen wie Datenspeicher und Netzwerken zu kommunizieren.
Aufgrund des Stromverbrauchs moderner Supercomputer benötigen Rechenzentren Kühlsysteme und geeignete Einrichtungen, um all dies unterzubringen.
Branchen-Newsletter
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und darüber hinaus auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Da Supercomputer häufig zur Ausführung von Programmen für künstliche Intelligenz verwendet werden, ist Supercomputing zum Synonym für KI geworden. Diese regelmäßige Nutzung ist darauf zurückzuführen, dass KI-Programme eine hohe Rechenleistung erfordern, die Supercomputer bieten. Mit anderen Worten: Supercomputer können die Arten von Workloads bewältigen, die typischerweise für KI-Anwendungen benötigt werden.
Zum Beispiel hat IBM die Supercomputer Summit und Sierra vor dem Hintergrund von Big Data- und KI-Workloads gebaut. Sie helfen dabei, Supernovae zu modellieren, neue Materialien zu entwickeln und Krebs, Genetik und Umwelt zu erkunden, indem sie Technologie nutzen, die allen Unternehmen zur Verfügung steht.
Supercomputing wird in Gleitkommaoperationen pro Sekunde (FLOPS) gemessen. Petaflows sind ein Maß für die Verarbeitungsgeschwindigkeit eines Computers, die tausend Billionen FPs entspricht. Und ein 1-Petaflop-Computersystem kann eine Quadrillion (1015) Flops ausführen. Aus einer anderen Perspektive betrachtet können Supercomputer eine Million Mal mehr Rechenleistung leisten als der schnellste Laptop.
Der schnellste Supercomputer der Welt ist laut Top500-Liste der japanische Supercomputer Fugku mit einer Geschwindigkeit von 442 Petaflows (Stand: Juni 2021). Die IBM Supercomputer Summit und Sierra belegen mit 148,8 bzw. 94,6 Petaflows den zweiten und dritten Platz. Summit findet im Oak Ridge National Laboratory, einer Einrichtung des US-Energieministeriums in Tennessee, statt. Sierra befindet sich im Lawrence Livermore National Laboratory in Kalifornien.
Um die heutigen Geschwindigkeiten ins rechte Licht zu rücken: Als Cray-1 1976 im Los Alamos National Laboratory installiert wurde, erreichte es eine Geschwindigkeit von etwa 160 Megaflops. Ein Megaflop kann eine Million (10,6) Flops ausführen.
Der Begriff Supercomputing wird manchmal synonym für andere Arten von Computing verwendet. Aber manchmal können die Synonyme verwirrend sein. Um einige Gemeinsamkeiten und Unterschiede zwischen den Computertypen zu verdeutlichen, finden Sie hier einige gängige Vergleiche.
Während sich Supercomputing in der Regel auf den Prozess komplexer und umfangreicher Berechnungen bezieht, die von Supercomputern verwendet werden, ist Hochleistungsrechnen (HPC) die Verwendung mehrerer Supercomputer zur Verarbeitung komplexer und umfangreicher Berechnungen. Beide Begriffe werden oft synonym verwendet.
Supercomputer werden manchmal auch als Parallelcomputer bezeichnet, da das Supercomputing eine parallele Verarbeitung nutzen kann. Von paralleler Verarbeitung spricht man, wenn mehrere CPUs zu einem bestimmten Zeitpunkt an der Lösung einer einzelnen Berechnung arbeiten. Allerdings nutzen auch HPC-Szenarien Parallelität, ohne dass unbedingt ein Supercomputer verwendet werden muss.
Eine weitere Ausnahme besteht darin, dass Supercomputer andere Prozessorsysteme verwenden können, z. B. Vektorprozessoren, Skalarprozessoren oder Multithread-Prozessoren.
Quantencomputing ist ein Computermodell, das die Gesetze der Quantenmechanik nutzt, um Daten zu verarbeiten und Berechnungen auf der Grundlage von Wahrscheinlichkeiten durchzuführen. Ziel ist es, komplexe Probleme zu lösen, die leistungsstärksten Supercomputer der Welt nicht lösen können und auch niemals lösen werden.
Supercomputing hat sich über viele Jahre hinweg entwickelt, seit die Colossus-Maschine in den 1940er Jahren in Bletchley Park in Betrieb genommen wurde. Der Colossus war der erste funktionsfähige, elektronische Digitalcomputer, der von Tommy Flowers, einem Ingenieur für Forschung des General Post Office (GPO), entwickelt wurde.
Der Begriff Supercomputer wurde Anfang der 1960er Jahre verwendet, als IBM den IBM 7030 Stretch auf den Markt brachte und Sperry Rand den UNIVAC LARC vorstellte. Dies sind die ersten beiden speziell entwickelten Supercomputer – sie sollen leistungsfähiger sein als die schnellsten kommerziellen Maschinen, die zu diesem Zeitpunkt verfügbar sind. Die Ereignisse, die den Fortschritt des Supercomputings beeinflussten, begannen in den späten 1950er Jahren, als die Regierung begann, die Entwicklung von High-Edge-Computertechnologie mit hoher Leistung für Anwendungen regelmäßig zu finanzieren.
Obwohl Supercomputer zunächst in begrenzter Stückzahl für die Regierung hergestellt wurden, sollte die entwickelte Technologie ihren Weg in die industriellen und kommerziellen Mainstreams finden. So waren beispielsweise zwei US-Unternehmen, Control Data Corporation (CDC) und Cray Forschung, von Mitte der 1960er bis Ende der 1970er Jahre in der kommerziellen Supercomputerbranche führend. Der von Seymour Cray entwickelte CDC 6600 gilt als der erste erfolgreiche kommerzielle Supercomputer. Von den 1990er Jahren bis heute wurde IBM zu einem kommerziellen Branchenführer.
IBM Spectrum LSF Suites ist eine Plattform für Workloadmanagement und ein Job-Scheduler für verteiltes Hochleistungscomputing (HPC).
Hybrid Cloud HPC-Lösungen von IBM helfen bei der Bewältigung großer, rechenintensiver Herausforderungen und beschleunigen die Erkenntnisgewinnung.
Finden Sie die richtige Cloud-Infrastrukturlösung für Ihre Geschäftsanforderungen und skalieren Sie Ressourcen nach Bedarf.