Was ist Supercomputing?
Supercomputing ist eine Form des Hochleistungsrechnens, bei der mit Hilfe eines leistungsstarken Computers, eines Supercomputers, Lösungsermittlungen oder Berechnungen durchgeführt werden, was die Gesamtzeit bis zur Lösung verkürzt.
Serverraum
Was ist Supercomputing-Technologie?

Die Supercomputing-Technologie umfasst Supercomputer, d. h. die schnellsten Computer der Welt. Supercomputer bestehen aus Verbindungselementen, E/A-Systemen, Speicher und Prozessorkernen.

Im Gegensatz zu herkömmlichen Computern verwenden Supercomputer mehr als nur eine zentrale Verarbeitungseinheit (CPU). Diese CPUs sind in Rechenknoten zusammengefasst, die aus einem Prozessor oder einer Gruppe von Prozessoren – symmetrisches Multiprocessing (SMP) – und einem Speicherblock bestehen. Bei entsprechender Skalierung kann ein Supercomputer Zehntausende von Knoten enthalten. Aufgrund ihrer Fähigkeit zur Verbundkommunikation können diese Knoten gemeinsam an der Lösung eines bestimmten Problems arbeiten. Knoten verwenden Verbindungen außerdem, um mit E/A-Systemen zu kommunizieren, wie z. B. Datenspeicher und Netzwerken.

Es ist zu beachten, dass Rechenzentren aufgrund des Stromverbrauchs moderner Supercomputer Kühlsysteme und geeignete Räumlichkeiten für die Unterbringung des gesamten Systems benötigen.

Wofür wird Supercomputing eingesetzt? Krebs bekämpfen

Algorithmen für maschinelles Lernen werden dazu beitragen, der medizinischen Forschung einen umfassenden und detaillierteren Überblick über die Bevölkerung der USA, die an einer Krebserkrankung leidet, zu geben.

Materialien der nächsten Generation identifizieren

Deep Learning könnte Wissenschaftlern dabei helfen, Materialien für bessere Batterien, widerstandsfähigere Baumaterialien und effizientere Halbleiter zu identifizieren.

Krankheitsbilder verstehen

Mithilfe einer Mischung aus Techniken der künstlichen Intelligenz (KI) werden die Forscher Muster in der Funktion, Zusammenarbeit und Evolution menschlicher Proteine und zellulärer Systeme identifizieren.

Supercomputing und KI

Da Supercomputer häufig zur Ausführung von Programmen im Bereich der künstlichen Intelligenz verwendet werden, ist Supercomputing zum Synonym für KI geworden. Die regelmäßige Nutzung im KI-Bereich ist darauf zurückzuführen, dass Supercomputer die hohe Rechenleistung bieten, die KI-Programme erfordern. Mit anderen Worten, Supercomputer können die Arten von Workloads bewältigen, die typischerweise für KI-Anwendungen benötigt werden.

So hat IBM beispielsweise die Supercomputer Summit und Sierra mit Blick auf Big Data und KI-Workloads entwickelt. Sie helfen dabei, Supernovae zu modellieren, neue Materialien zu entwickeln und Krebs, Genetik und die Umwelt zu erforschen, wobei sie Technologien einsetzen, die allen Unternehmen zur Verfügung stehen.

Wie schnell ist Supercomputing?

Supercomputing wird in Gleitkommaoperationen pro Sekunde (FLOPS) gemessen. Petaflops sind ein Maß für die Verarbeitungsgeschwindigkeit eines Computers und entsprechen einer Billion Flops. Und ein 1-Petaflop-Computersystem kann eine Quadrillion (1015) Flops ausführen. Anders betrachtet können Supercomputer über eine Million Mal mehr Rechenleistung verfügen als der schnellste Laptop.

Was ist der schnellste Supercomputer?

Entsprechend der TOP500-Liste  (Link befindet sich außerhalb von ibm.com), ist der schnellste Supercomputer der Welt der japanische Supercomputer Fugaku mit einer Geschwindigkeit von 442 Petaflops (Stand: Juni 2021). Die IBM-Supercomputer Summit und Sierra belegen den zweiten und dritten Platz mit 148,8 bzw. 94,6 Petaflops. Summit befindet sich im Oak Ridge National Laboratory, einer Einrichtung des US-Energieministeriums im Bundesstaat Tennessee. Sierra befindet sich am Lawrence Livermore National Laboratory im Bundesstaat Kalifornien.

Um die heutigen Geschwindigkeiten richtig einzuordnen: Als der Supercomputer Cray-1 im Jahr 1976 im Los Alamos National Laboratory installiert wurde, erreichte er eine Geschwindigkeit von etwa 160 Megaflops. Ein Megaflop kann eine Million (106) Flops ausführen.

Supercomputing versus …

Der Begriff Supercomputing wird manchmal als Synonym für andere Arten von Computing verwendet. Aber manchmal können die Synonyme etwas verwirrend sein. Um Ähnlichkeiten und Unterschiede zwischen den Arten von Computing zu verdeutlichen, finden Sie hier einige gängige Vergleiche.

Supercomputing vs. HPC

Während sich Supercomputing typischerweise auf den Prozess komplexer und umfangreicher Berechnungen bezieht, der von Supercomputern ausgeführt wird, ist High Performance Computing (HPC, d. h. Hochleistungs-Computing) der Einsatz mehrerer Supercomputer zur Verarbeitung komplexer und umfangreicher Berechnungen. Beide Begriffe werden oft synonym verwendet.

Supercomputing vs. Parallelcomputing

Supercomputer werden manchmal auch als Parallelcomputer bezeichnet, da Supercomputing den Ansatz der Parallelverarbeitung nutzen kann. Von Parallelverarbeitung spricht man, wenn mehrere CPUs gleichzeitig an der Lösung einer einzigen Berechnung arbeiten. Auch HPC-Szenarien verwenden jedoch Parallelverarbeitung, ohne dabei unbedingt einen Supercomputer zu verwenden.

Ein weiterer Unterschied besteht darin, dass Supercomputer andere Prozessorsysteme wie z. B. Vektorprozessoren, Skalarprozessoren oder Multithreading-Prozessoren verwenden können.

Quanten-Computing ist ein Computing-Modell, das die Gesetze der Quantenmechanik nutzt, um Daten zu verarbeiten und Berechnungen auf der Grundlage von Wahrscheinlichkeiten durchzuführen. Dieses Modell zielt darauf ab, komplexe Probleme zu lösen, die auch die leistungsstärksten Supercomputer der Welt nicht lösen können und niemals lösen werden.

Geschichte des Supercomputings
Wo liegen die Anfänge des Supercomputings?

Supercomputing hat sich über viele Jahre hinweg entwickelt, seit die Colossus-Maschine in den 1940er Jahren in Bletchley Park in Betrieb genommen wurde. Der Colossus war der erste funktionsfähige, elektronische, digitale Computer, der von Tommy Flowers, einem Telefon-Forschungsingenieur des General Post Office (GPO), entworfen wurde.

Wann wurde der Supercomputer erfunden?

Der Begriff Supercomputer wurde ab Anfang der 1960er Jahre verwendet, als IBM den IBM 7030 Stretch und Sperry Rand den UNIVAC LARC vorstellten, die ersten beiden Supercomputer, die dafür konzipiert waren, leistungsfähiger als die zu dieser Zeit auf dem Markt erhältlichen schnellsten Maschinen zu sein. Weitere Ereignisse, die den Fortschritt des Supercomputing beeinflussten, setzten in den späten 1950er Jahren ein, als die US-Regierung begann, die Entwicklung modernster Hochleistungscomputertechnologie für militärische Anwendungen regelmäßig zu finanzieren.

Obwohl die Supercomputer zunächst nur in begrenzter Stückzahl für die Regierung produziert wurden, hielt die während dieser Zeit entwickelte Technologie später Einzug in Industrie und Handel. Beispielsweise standen zwei US-Unternehmen, Control Data Corporation (CDC) und Cray Research, von Mitte der 1960er bis Ende der 1970er Jahre an der Spitze der kommerziellen Supercomputer-Industrie. Der von Seymour Cray entworfene CDC 6600 gilt als der erste erfolgreiche kommerzielle Supercomputer. In den 1990er Jahren und bis heute ist IBM in dieser Branche führend.

Verwandte Lösungen
HPC-Lösungen

HPC-Lösungen helfen bei der Bewältigung der größten Herausforderungen der Welt, z. B. bei der Bekämpfung von Krebs und der Identifizierung von Materialien der nächsten Generation.

HPC-Server- und Speicherlösungen entdecken
IT-Infrastrukturlösungen für KI

Um die heutigen Herausforderungen zu meistern und sich auf die Zukunft vorzubereiten, benötigen Sie KI-Lösungen, die in Ihre Infrastruktur und Datenstrategie integriert sind.

Auf eine KI-Infrastruktur der Enterprise-Klasse umsteigen
Supercomputing mit Power10

Mit Power10, der für eine verbesserte Energieeffizienz, Kapazität und Leistung entwickelt wurde, können Sie die Zukunft der Hybrid-Cloud gestalten.

Power10 kennenlernen
Schnellere Rechenserver

Eliminieren Sie E/A-Engpässe und teilen Sie Speicher über GPUs und CPUs hinweg, um schnellere Einblicke und genauere Modelle zu erhalten.

Beschleunigte Computing-Server entdecken
Linux-Server und -Betriebssysteme

Optimieren Sie Ihre IT-Infrastruktur sowohl On-Premises als auch in der Cloud mit der Flexibilität und Kontrolle, die die Open-Source-Entwicklung bietet.

Mit Linux-Servern und -Betriebssystemen modernisieren
Ressourcen Was ist ein Mainframe?

Erfahren Sie, was ein Mainframe ist und wie er funktioniert.

Neueste Forschung zum Thema Supercomputing

Erfahren Sie, wie Unternehmen Supercomputing in ihren jeweiligen Branchen einsetzen, z. B. bei der biologischen Umformung von flüssigem Wasser (Fluiddynamik) oder bei der Versorgung entlegener Orte mit Solarstrom und -wärme.

Was ist Open-Source?

Erfahren Sie, was Open Source bedeutet, was die Unterschiede zu Closed-Source-Software sind und wie sich Open Source entwickelt hat.

Was ist HPC?

Erfahren Sie mehr über High Performance Computing, warum es wichtig ist und wie es funktioniert.

Was ist KI?

Erfahren Sie, was künstliche Intelligenz ist, welche Arten es gibt, was der Unterschied zwischen Deep Learning und maschinellem Lernen ist und wie KI angewendet wird.

Was ist Quantencomputing?

Quanten-Computing ist ein Computing-Modell, das die Gesetze der Quantenmechanik nutzt, um Daten zu verarbeiten und Berechnungen auf der Grundlage von Wahrscheinlichkeiten durchzuführen. Dieses Modell zielt darauf ab, komplexe Probleme zu lösen, die auch die leistungsstärksten Supercomputer der Welt nicht lösen können und niemals lösen werden.