Was ist beschleunigtes Computing?

Mann, der ein digitales Tablet im Rechenzentrum benutzt

Was ist beschleunigtes Computing?

Beschleunigtes Computing bezieht sich auf die Verwendung von speziell entwickelter Hardware und Software, um Rechenaufgaben zu beschleunigen. 

Für beschleunigtes Computing sind eine Vielzahl von Hardware- und Softwarekomponenten (auch als Beschleuniger bezeichnet) erforderlich, darunter Grafikprozessoren (GPUs), anwendungsspezifische integrierte Schaltungen (ASICs) und vor Ort programmierbare Gate-Arrays (FPGAs). 

Beschleunigte Computerlösungen sind in vielen Branchen sehr gefragt, weil sie Berechnungen schneller und effizienter durchführen können als herkömmliche zentrale Recheneinheiten (CPUs). Im Gegensatz zu CPUs basieren Beschleuniger auf parallelem Rechnen, einer Methode der rechnerischen Problemlösung, bei der Aufgaben in kleinere Probleme aufgeteilt und gleichzeitig statt seriell gelöst werden. 

Aufgrund seiner Datenverarbeitungsgeschwindigkeiten ist beschleunigtes Computing für die Weiterentwicklung vieler modernster Technologien und Anwendungen kritisch geworden, darunter künstliche Intelligenz (KI), generative KI, maschinelles Lernen (ML) und High Performance Computing (HPC). Heute ist es eine Schlüsselkomponente der Strategien vieler der weltweit erfolgreichsten Technologieunternehmen, darunter Google, Amazon Web Services (AWS) und Microsoft.

Beschleuniger im Vergleich zu CPUs

Zentrale Recheneinheiten oder CPUs bestehen aus verschiedenen elektronischen Schaltkreisen, die das Betriebssystem (OS) und die Apps eines Computers ausführen. Viele Jahre lang diente die CPU als Gehirn eines Computers und wandelte Dateneingaben in Informationsausgaben um. Mit der zunehmenden Weiterentwicklung der Anwendungen mussten Daten jedoch schneller und effizienter verarbeitet werden, als es CPUs möglich war. Hier werden Beschleuniger und beschleunigte Computertechnologien mit ihren parallelen Verarbeitungsfunktionen, geringer Latenz und hohem Durchsatz eingesetzt. Seit den 1980er Jahren, als sie zum ersten Mal an Bedeutung gewannen, hingen viele der größten technologischen Fortschritte in der Informatik von Beschleunigern ab.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Warum ist beschleunigtes Computing wichtig?

Von den aufregendsten neuen Videospielen und immersiven Virtual Reality (VR)-Erfahrungen bis hin zu ChatGPT, dem Training von KI-Modellen und Big Data-Analyse sind Beschleuniger ein wesentlicher Bestandteil unserer sich schnell entwickelnden, hypervernetzten Welt. Viele moderne Unternehmen verlassen sich auf Beschleuniger, um ihre wertvollsten Anwendungen und Infrastrukturarchitekturen zu betreiben, darunter Cloud Computing, Rechenzentren und Edge Computing. Unternehmensleiter und Entwickler, die generative KI erkunden möchten, investieren beispielsweise in Beschleuniger, um ihre Rechenzentren zu optimieren und mehr Informationen schneller zu verarbeiten1.

Beschleuniger werden in einer Vielzahl von Geschäftsanwendungen eingesetzt, um die Datenverarbeitung zu beschleunigen – insbesondere mit der Ausweitung der 5G-Abdeckung – und erhöhen die Möglichkeiten des Internets der Dinge (IoT) und des Edge Computing. IoT-Anwendungen sind auf Beschleuniger angewiesen, um Daten von intelligenten Geräten wie Kühlschränken, Verkehrsflusssensoren und mehr zu verarbeiten. Edge Computing kann Erkenntnisse liefern und zu schnelleren Reaktionszeiten sowie einer verbesserten Customer Experience führen. Dies ist jedoch nur mit den entsprechenden Verarbeitungsgeschwindigkeiten möglich, die Beschleuniger bieten. 

 Wenn es um KI geht, so sind viele der fortschrittlichsten Anwendungen – wie die Verarbeitung natürlicher Sprache (NLP), Computer Vision und Spracherkennung – auf die Leistung von beschleunigtem Computing angewiesen, um zu funktionieren. Neuronale Netze, die vielen hochmodernen KI-Anwendungen zugrunde liegen, benötigen beispielsweise KI-Beschleuniger, um Daten mit hoher Geschwindigkeit zu klassifizieren und zu clustern.

Da immer mehr Unternehmen nach Möglichkeiten suchen, ihre digitale Transformation und Innovationsprozesse zu beschleunigen, bieten beschleunigte Computerlösungen vergleichsweise niedrige Gesamtbetriebskosten. Da Beschleuniger in der Lage sind, große Datenmengen schnell und genau zu verarbeiten, können sie in vielen verschiedenen Anwendungen eingesetzt werden und haben das Potenzial, einen geschäftlichen Mehrwert zu schaffen, einschließlich intelligenter Chatbots, Datenanalysen, Cloud Computing und mehr.

High Performance Computing

Skalierbare Intel Xeon Prozessoren der 4. Generation in der IBM Cloud

Erfahren Sie mehr über das Engagement von Intel und IBM für die nächste Generation der Mikroarchitektur in der Cloud-Branche.

Wie funktioniert beschleunigtes Computing?

Beschleunigtes Computing nutzt eine Kombination aus Hardware-, Software- und Netzwerktechnologien, um modernen Unternehmen bei der Ausführung ihrer fortschrittlichsten Anwendungen zu unterstützen. Zu den Hardwarekomponenten, die für Beschleuniger entscheidend sind, gehören GPUs, ASICs und FPGAs. Software und Anwendungsprogrammierschnittstellen (APIs) sind ebenso wichtig, wobei CUDA und OpenCL eine wichtige Rolle spielen. 

Schließlich helfen Netzwerklösungen wie PCI Express (PCIe) und NV Link dabei, dass Recheneinheiten mit den Arbeitsspeichern und Speichergeräten kommunizieren, in denen die Daten gespeichert sind. Im Folgenden sehen wir uns genauer an, wie Hardware-Beschleuniger, Software-Beschleuniger und Netzwerklösungen zusammenarbeiten, um beschleunigtes Computing möglich zu machen.

Hardware-Beschleuniger

Moderne Hardware-Beschleuniger können Daten aufgrund ihrer Parallelverarbeitungsfunktionen deutlich schneller verarbeiten als herkömmliche CPUs. Ohne sie wären viele der wichtigsten Anwendungen des beschleunigten Computings nicht möglich.

GPUs

GPUs oder Grafikverarbeitungseinheiten sind Hardware-Beschleuniger, die Computergrafik und Bildverarbeitung auf verschiedenen Geräten beschleunigen, darunter Grafikkarten, Systemboards, Mobiltelefone und Personalcomputer (PCs). GPU-Beschleuniger reduzieren die Zeit, die ein Computer für die Ausführung mehrerer Programme benötigt, erheblich. GPU-beschleunigtes Computing wird in einer Vielzahl von beschleunigten Computing-Anwendungen eingesetzt, darunter KI und Blockchain.

ASICs

ASICs oder anwendungsspezifische integrierte Schaltkreise sind Hardware-Beschleuniger, die für eine bestimmte Anwendung oder eine bestimmte Funktion entwickelt wurden – wie z. B. Deep Learning im Falle des WSE-3 ASICs-Beschleunigers, der als einer der schnellsten KI-Beschleuniger der Welt gilt2. Im Gegensatz zu einigen anderen Hardware-Beschleunigern können ASICs nicht umprogrammiert werden. Da sie jedoch für einen einzigen Zweck entwickelt wurden, übertreffen sie in der Regel Beschleuniger, die für allgemeinere Rechenaufgaben entwickelt wurden. Ein weiteres Beispiel für einen ASICs-Beschleuniger ist die Tensor Processing Unit (TPU) von Google, die für neuronale Netzwerke im Bereich ML auf Googles eigener TensorFlow-Software entwickelt wurde.

FPGAs

Field-Programmable Gate Arrays (FPGAs) sind hochgradig anpassbare KI-Beschleuniger, die auf spezielles Wissen angewiesen sind, um für einen bestimmten Zweck umprogrammiert zu werden. Im Gegensatz zu anderen Hardware-Beschleunigern haben FPGAs ein einzigartiges Design, das für eine bestimmte Funktion geeignet ist, die oft mit der Echtzeit-Datenverarbeitung zu tun hat. FPGAs können auf Hardwareebene neu programmiert werden, was ein wesentlich höheres Maß an Anpassung ermöglicht. Sie werden häufig in der Luft- und Raumfahrt, in IoT-Anwendungen und bei drahtlosen Netzwerklösungen eingesetzt. 

APIs und Software

APIs und Software spielen kritische Rollen dabei, dass Beschleuniger funktionieren, indem sie eine Schnittstelle zwischen der Hardware und den Netzwerken bilden, die für die Ausführung beschleunigter Computing-Anwendungen erforderlich sind. 

APIs

APIs oder Anwendungsprogrammierschnittstellen sind Regelwerke, die es Anwendungen ermöglichen, Daten zu kommunizieren und auszutauschen. APIs sind für beschleunigtes Computing entscheidend und helfen, Daten, Dienste und Funktionalität zwischen Anwendungen zu integrieren. Sie vereinfachen und beschleunigen die Anwendungs- und Softwareentwicklung , indem sie Entwicklern die Integration von Daten, Diensten und Funktionen aus anderen Anwendungen ermöglichen und deren gemeinsame Nutzung im gesamten Unternehmen gewährleisten. APIs helfen, den Datenfluss zwischen Hardware- und Software-Beschleuniger zu optimieren und ermöglichen Entwicklern den Zugriff auf Softwarebibliotheken, die kritisch für die App- und Softwareentwicklung sind.

CUDA

Die Compute Unified Device Architecture (CUDA), die 2007 von NVIDIA entwickelt wurde, ist eine Software, die Entwicklern direkten Zugriff auf die parallelen Rechenfähigkeiten von NVIDIA-GPUs bietet. CUDA ermöglicht es Programmierern, die GPU-Technologie für eine viel breitere Palette von Funktionen zu nutzen, als dies bisher möglich war. Aufbauend auf dem, was CUDA ermöglicht hat, haben die GPU-Hardware-Beschleuniger seitdem noch mehr Funktionen erhalten – vor allem durch Raytracing, also die Erzeugung von Computerbildern durch Nachverfolgung der Lichtrichtung von einer Kamera, sowie durch Tensorkerne, die Deep Learning (DL) ermöglichen.

OpenCL

OpenCL ist eine Open-Source-Plattform, die für paralleles Computing entwickelt wurde und viele Arten von Hardware-Beschleunigern unterstützt, einschließlich GPUs und FPGAs. Seine hohe Kompatibilität macht es zu einem idealen Tool für Entwickler, die verschiedene Arten von Komponenten in ihren Workloads verwenden müssen. Beispiele für OpenCl-Anwendungsfall beinhalten Gaming, 3D-Modellierung und Multimedia-Produktion.

Netzwerktechnologie

Netzwerktechnologien sind für ein beschleunigtes Computing entscheidend und ermöglichen eine schnelle und effektive Kommunikation zwischen den vielen verschiedenen Verarbeitungseinheiten und den Speicher- und Speichergeräten, auf denen die Daten gespeichert sind. Hier sind einige der verschiedenen Arten von Netzwerken, auf denen beschleunigtes Computing beruht.

Ethernet

Ethernet ist eine Technologie, die häufig für die schnelle und flexible Übertragung von Daten zwischen Servern in einem Rechenzentrum (oder einfach nur zwischen Computern, die sich im selben physischen Raum befinden) eingesetzt wird. Es ist zwar weit verbreitet und erschwinglich, aber nicht so schnell wie einige der anderen Arten von Netzwerken, wie NVLink oder InfiniBand.

PCI Express (PCIe)

PCIe ist ein Hochgeschwindigkeits-Computererweiterungsbus, der zwei Geräte mit einer externen Speicherquelle verbindet. Beschleuniger verwenden PCIe, um GPUs oder andere Arten von Hardware-Beschleunigern mit einem zentralen Computersystem zu verbinden.

NVLink

NVLink ist eine proprietäre Interconnect-Technologie von NVIDIA und kann eine wesentlich höhere Bandbreite als PCIe bereitstellen. Es wurde entwickelt, um einen hocheffizienten Datenaustausch zwischen GPUs und anderen Geräten zu ermöglichen.

InfiniBand

InfiniBand ist eine Kommunikationsspezifikation, die eine Switching-Fabric-Architektur auf verbundene Server, Speicher oder andere Geräte in einem Rechenzentrum definiert. Die von der InfiniBand Trade Association entwickelte Technologie zeichnet sich durch ihre hohe Leistung und geringe Latenz aus und ist damit ideal für Hochleistungs-Workloads.

Computer Express Link (CXL)

CXL ist ein offener Interconnect-Standard, der dazu beiträgt, geringe Latenz zu erreichen und die Bandbreite zwischen CPUs und Beschleunigern zu erhöhen, indem mehrere Schnittstellen zu einer einzigen PCIe-Verbindung kombiniert werden. 

Anwendungsfall für beschleunigtes Computing

Mit der Verbreitung von KI-Technologie und dem Ausbau von 5G-Netzwerken, die schnelle Datenübertragung ermöglichen, wächst die Zahl der Anwendungsfälle für beschleunigtes Computing täglich. Hier sind einige der häufigsten. 

Künstliche intelligenz (KI)

Künstliche Intelligenz (KI) und ihre vielen Anwendungen wären ohne Beschleuniger wie GPUs und ASICs nicht möglich. Diese beschleunigten Datenverarbeitungsgeräte ermöglichen es Computern, hochkomplexe Berechnungen schneller und effizienter auszuführen als herkömmliche CPUs. Beschleuniger wie der cloudnative KI-Supercomputer Vela von IBM treiben viele führende KI-Anwendungen an, die auf ihre Fähigkeit angewiesen sind, KI-Modelle auf immer größeren Datensätzen zu trainieren. 

Maschinelles Lernen (ML) und Deep Learning (DL)

Sowohl das maschinelle Lernen (ML) als auch das Deep Learning (DL), ein Bereich der KI, der sich mit der Verwendung von Daten und Algorithmen befasst, um die Art und Weise, wie Menschen lernen und entscheiden, nachzuahmen, sind auf die Funktionen der Datenverarbeitung von Beschleunigern angewiesen. Beschleunigtes Computing ermöglicht das Training von Deep-Learning-Modellen, die lernen, aus Daten Schlüsse zu ziehen, ähnlich wie das menschliche Gehirn. 

Blockchain

Blockchain, das beliebte Hauptbuch, das zur Aufzeichnung von Transaktionen und zur Verfolgung von Assets in Geschäftsnetzwerken verwendet wird, ist stark auf beschleunigtes Computing angewiesen. Ein wichtiger Schritt namens Proof of Work (PoW), bei dem eine Transaktion validiert und zu einer Blockchain hinzugefügt wird, hängt von Beschleunigern ab. Bei Kryptowährungen zum Beispiel bedeutet PoW, dass jeder, der über die entsprechende Maschine verfügt, eine Kryptowährung wie Bitcoin schürfen kann.

Internet der Dinge (IoT)

Beschleuniger verarbeiten die großen Datensätze, die von Anwendungen des Internets der Dinge (IoT) generiert werden, weitaus effizienter als eine CPU mit serieller Verarbeitungsfunktionalität. Das IoT hängt von mit dem Internet verbundenen Geräten ab, die ständig Daten zur Verarbeitung sammeln. Hardware-Beschleuniger wie GPUs sind bei der schnellen Verarbeitung von Daten für IoT-Anwendungen, etwa in autonomen Autos oder Systemen zur Überwachung von Verkehr und Wetter, unverzichtbar.

Edge Computing

Edge Computing, ein Framework für verteiltes Rechnen, das Anwendungen näher an die Datenquellen bringt, ist für seine Funktionsfähigkeit stark auf Beschleuniger angewiesen. Der Ausbau der 5G-Konnektivität hat zu einem exponentiellen Wachstum der Datensätze geführt. Beschleunigtes Computing mit seinen parallelen Verarbeitungsfunktionen ermöglicht es Unternehmen, alle Vorteile von Edge Computing zu nutzen, z. B. eine kürzere Zeit bis zur Erkenntnis, bessere Reaktionszeiten und eine höhere Bandbreite.

Weiterführende Lösungen
IBM Spectrum LSF Suites 

IBM Spectrum LSF Suites ist eine Plattform für Workloadmanagement und ein Job-Scheduler für verteiltes Hochleistungscomputing (HPC).

Spectrum LSF Suites erkunden
Server- und Speicherlösungen für High Performance Computing (HPC) | IBM

Hybrid Cloud HPC-Lösungen von IBM helfen bei der Bewältigung großer, rechenintensiver Herausforderungen und beschleunigen die Erkenntnisgewinnung.

HPC-Lösungen erkunden
Lösungen für Cloud-Infrastrukturen

Finden Sie die richtige Cloud-Infrastrukturlösung für Ihre Geschäftsanforderungen und skalieren Sie Ressourcen nach Bedarf.

Cloud-Lösungen
Machen Sie den nächsten Schritt

Unterstützen Sie Ihre anspruchsvollsten KI- und rechenintensiven Workload mit den HPC-Lösungen von IBM. Nutzen Sie die Flexibilität und die hochmoderne Infrastruktur der Hybrid Cloud, um Ihren Weg zur Innovation zu beschleunigen.

HPC-Lösungen erkunden
Fußnoten

1. GPUs Force CIOs to Rethink the Datacenter, Information Week, 23. April 2024.

2. Gigantic AI CPU has almost one million cores, Tech Radar, 16. März 2024.