Eine Grafikverarbeitungseinheit (GPU) ist eine elektronische Schaltung, die Computergrafik- und Bildverarbeitung auf einer Vielzahl von Geräten beschleunigen soll. Zu diesen Geräten gehören Grafikkarten, Systemboards,Mobiltelefone und Personalcomputer (PCs).
Durch die schnelle Ausführung mathematischer Berechnungen verkürzt ein Grafikprozessor die Zeit, die ein Computer für die Ausführung mehrerer Programme benötigt. Dies macht sie zu einem wesentlichen Wegbereiter für aufkommende und zukünftige Technologien wie maschinelles Lernen (ML), künstliche Intelligenz (KI) und Blockchain.
Vor der Erfindung der GPUs in den 1990er Jahren waren die Grafikcontroller in PCs und Videospiel-Controllern auf die Zentraleinheit (CPU) eines Computers angewiesen, um Aufgaben auszuführen. Seit den frühen 1950er Jahren sind CPUs die wichtigsten Prozessoren in einem Computer. Sie führen alle Befehle aus, die für die Ausführung von Programmen erforderlich sind, z. B. Logik, Steuerung und Eingabe/Ausgabe (E/A).
Mit dem Aufkommen von Computerspielen und computergestütztem Design (CAD) in den 1990er Jahren benötigte die Branche jedoch eine schnellere und effizientere Methode, um Pixel schnell zu kombinieren.
2007 entwickelte Nvidia CUDA™ (Compute Unified Device Architecture), eine Softwareplattform und Programmierschnittstelle (API), die Entwicklern direkten Zugriff auf die parallelen Rechenfähigkeiten von Grafikprozessoren ermöglichte und ihnen die Nutzung der GPU-Technologie für eine größere Bandbreite an Funktionen als bisher ermöglichte.
In den 2010er Jahren wurde die GPU-Technologie noch leistungsfähiger, vor allem durch Raytracing (die Erzeugung von Computerbildern durch Nachverfolgung der Richtung des Lichts von einer Kamera) und Tensorkerne (entworfen für Deep Learning).
Aufgrund dieser Fortschritte haben GPUs eine wichtige Rolle bei der KI-Beschleunigung und bei Deep-Learning-Prozessoren gespielt und dazu beigetragen, die Entwicklung von KI- und ML-Anwendungen zu beschleunigen. Heutzutage treiben GPUs nicht nur Spielkonsolen und Bearbeitungssoftware an, sondern auch modernste Rechenfunktionen, die für viele Unternehmen von entscheidender Bedeutung sind.
Eine GPU verfügt über einen eigenen Schnellzugriffsspeicher (RAM) – eine spezielle Art von elektronischem Speicher, in dem Code und Daten gespeichert werden, auf die der Chip zugreifen und die er bei Bedarf ändern kann. Moderne GPUs verfügen in der Regel über einen Arbeitsspeicher, der speziell für die großen Datenmengen ausgelegt ist, die für rechenintensive Aufgaben wie Grafikbearbeitung, Spiele oder KI/ML-Anwendungsfälle benötigt werden.
Zwei beliebte Arten von GPU-Speicher sind Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6) und GDDR6X, eine spätere Generation. GDDR6X verbraucht 15 % weniger Strom pro übertragenem Bit als GDDR6, aber der Gesamtstromverbrauch ist höher, da GDDR6X schneller ist. iGPUs können entweder in die CPU eines Computers integriert oder in einen Steckplatz neben der CPU eingesetzt und über einen PCI-Express-Anschluss angeschlossen werden.
CPUs und GPUs haben ein ähnliches Design, einschließlich einer ähnlichen Anzahl von Kernen und Transistoren für Verarbeitungsaufgaben, aber CPUs sind in ihren Funktionen allgemeiner einsetzbar als GPUs. GPUs konzentrieren sich in der Regel auf eine einzelne, spezifische Rechenaufgabe wie Grafikverarbeitung oder maschinelles Lernen.
CPUs sind das Herz und Gehirn eines Computersystems oder Geräts. Sie erhalten allgemeine Anweisungen oder Anfragen zu einer Aufgabe von einem Programm oder einer Softwareanwendung. Eine GPU hingegen hat eine spezifischere Aufgabe – in der Regel die schnelle Verarbeitung von hochauflösenden Bildern und Videos. GPUs führen ständig komplexe mathematische Berechnungen durch, die für die Darstellung von Grafiken oder andere rechenintensive Funktionen erforderlich sind, um ihre Aufgabe zu erfüllen.
Einer der größten Unterschiede besteht darin, dass CPUs in der Regel weniger Kerne verwenden und ihre Aufgaben in einer linearen Reihenfolge ausführen. GPUs verfügen jedoch über Hunderte – sogar Tausende – von Kernen, die die parallele Verarbeitung ermöglichen, die ihre blitzschnellen Verarbeitungsfunktionen antreibt.
Die ersten GPUs wurden entwickelt, um das Rendern von 3D-Grafiken zu beschleunigen und Film- und Videospielszenen realistischer und ansprechender erscheinen zu lassen. Der erste GPU-Chip, der GeForce von Nvidia, wurde 1999 auf den Markt gebracht, und es folgte schnell eine rasante Wachstumsphase, in der die GPU-Fähigkeiten aufgrund ihrer Hochgeschwindigkeits-Parallelverarbeitung auf andere Bereiche ausgeweitet wurden.
Parallelverarbeitung oder paralleles Rechnen ist eine Art der Datenverarbeitung, die auf zwei oder mehr Prozessoren beruht, um verschiedene Teilmengen einer gesamten Rechenaufgabe zu erledigen.
Vor GPUs konnten Computer der älteren Generation jeweils nur ein Programm ausführen, wobei die Erledigung einer Aufgabe oft Stunden dauerte. Die Parallelverarbeitungsfunktion von GPUs führt viele Berechnungen oder Aufgaben gleichzeitig aus und ist damit schneller und effizienter als CPUs in älteren Computern.
Es gibt drei Arten von GPUs:
Diskrete GPUs oder dGPUs sind Grafikprozessoren, die von der CPU eines Geräts getrennt sind. Dort werden die Informationen aufgenommen und verarbeitet, so dass ein Computer funktionieren kann. Diskrete GPUs werden in der Regel in fortschrittlichen Anwendungen mit besonderen Anforderungen wie Videobearbeitung, Inhaltserstellung oder High-End-Gaming eingesetzt. Dabei handelt es sich um separate Chips mit Anschlüssen zu separaten Leiterplatten, die über einen Express-Steckplatz an der CPU befestigt sind.
Eine der am häufigsten verwendeten diskreten GPUs ist die Intel Arc-Marke, die für die PC-Gaming-Branche entwickelt wurde.
Eine integrierte GPU oder iGPU ist in die Infrastruktur eines Computers oder Geräts integriert und wird in der Regel neben derCPU eingesetzt. Integrierte GPUs wurden in den 2010er Jahren von Intel entwickelt und erfreuten sich zunehmender Beliebtheit, da Hersteller wie MSI, ASUS und Nvidia erkannten, wie leistungsfähig die Kombination von GPUs mit CPUs ist, anstatt dass Benutzer selbst GPUs über einen PCI-Express-Steckplatz hinzufügen müssen. Sie sind nach wie vor eine beliebte Wahl für Laptop-Benutzer, Gamer und andere, die rechenintensive Programme auf ihren PCs ausführen.
Virtuelle GPUs haben dieselben Funktionen wie separate oder integrierte GPUs, aber ohne die Hardware. Sie sind eine softwarebasierte Version einer GPU, die für eine Cloud-Instanz entwickelt wurde und zur Ausführung derselben Workloads verwendet werden kann. Da sie keine Hardware haben, sind sie außerdem einfacher und billiger zu warten als ihre physischen Gegenstücke.
Ein Cloud-GPU bezieht sich auf den Zugriff auf einen virtuellen Grafikprozessor durch einen Cloud-Service-Provider (CSP). In den letzten Jahren ist der Markt für cloudbasierte GPU-Dienste gewachsen, angetrieben durch die Beschleunigung des Cloud Computing und die zunehmende Verbreitung von KI/ML-basierten Anwendungen. In einem Bericht von Fortune Business Insights wird prognostiziert, dass der Markt für GPU as a Service (GPUaaS), der 2023 einen Wert von 3,23 Milliarden US-Dollar hatte, von 4,31 Milliarden US-Dollar im Jahr 2024 auf 49,84 Milliarden US-Dollar im Jahr 2032 wachsen wird. 1
Viele CSPs, darunter Google Cloud Platform, Amazon Web Services (AWS), Microsoft und IBM Cloud, bieten On-Demand-Zugriff auf skalierbare GPU-Services für eine optimierte Leistung von Workloads. CSPs stellen in ihren Rechenzentren virtualisierte GPU-Ressourcen auf Pay-as-you-go-Basis bereit. Sie verwenden häufig GPU-Hardware von führenden GPU-Herstellern wie Nvidia, AMD und Intel, um ihre cloudbasierte Infrastruktur zu betreiben.
Cloudbasierte GPU-Angebote sind in der Regel vorkonfiguriert und können einfach bereitgestellt werden. Diese Funktionen helfen Unternehmen, die mit physischen GPUs verbundenen Vorabkosten und Wartungsarbeiten zu vermeiden. Da Unternehmen außerdem versuchen, Workloads mit generativer KI zu integrieren, um fortgeschrittene Rechenaufgaben auszuführen (z. B. Erstellung von Inhalten, Bildgenerierung), sind die Skalierbarkeit und Kosteneffizienz, die cloudbasierte GPUs bieten, für Unternehmen von entscheidender Bedeutung geworden.
GPU-Benchmarks bieten ein Verfahren zur Bewertung der GPU-Leistung unter verschiedenen Bedingungen. Diese spezialisierten Software-Tools ermöglichen es Benutzern (z. B. Gamern, 3D-Künstlern, Systementwicklern), Erkenntnisse über ihre GPUs zu gewinnen und Leistungsprobleme wie Engpässe, Latenzzeiten und Kompatibilität mit anderer Software und Hardware zu beheben.
Es gibt zwei Haupttypen von GPU-Benchmarks: synthetische und reale Benchmarks. Synthetische Benchmarks testen die Rohleistung einer GPU in einer standardisierten Umgebung. Reale Benchmarks testen die Leistung einer GPU in bestimmten Anwendungen.
GPU-Benchmarking-Tools untersuchen Leistungsmetriken wie Geschwindigkeiten, Bildraten und Speicherbandbreite. Sie betrachten auch die thermische Effizienz und den Stromverbrauch, um den Benutzern zu helfen, eine optimale Leistung auf der Grundlage spezifischer Bedürfnisse zu erzielen. Einige GPU-Benchmark-Plattformen enthalten auch Tests, die messen, wie gut ein Solid-State-Drive (SSD) mit einer GPU interagiert.
Im Laufe der Zeit wurden die GPUs durch technische Verbesserungen immer programmierbarer, und es wurden immer mehr Fähigkeiten entdeckt. Insbesondere ihre Fähigkeit, Aufgaben auf mehrere Prozessoren zu verteilen – die parallele Verarbeitung – hat sie für eine Vielzahl von Anwendungen unverzichtbar gemacht, wie z. B. für PC-Spiele, Hochleistungsrechnen (HPC), 3D-Rendering-Workstations, Rechenzentren und viele andere.
Nachfolgend erhalten Sie einen genaueren Einblick in einige der wichtigsten modernen Anwendungen der GPU-Technologie, darunter:
KI und ihre vielen Anwendungen wären ohne GPU-Computing wohl unmöglich. Die Fähigkeit von GPUs, hochtechnische Probleme schneller und effizienter zu lösen als herkömmliche CPUs, macht sie unverzichtbar. Grafikprozessoren sind entscheidende Komponenten vieler Supercomputer, insbesondere für KI-Supercomputer.
GPUs treiben viele führende KI-Anwendungen an, wie z. B. IBMs cloudnativen KI-Supercomputer Vela, die hohe Geschwindigkeiten erfordern, um mit immer größeren Datensätzen zu trainieren. KI-Modelle werden auf GPUs von Rechenzentren trainiert und ausgeführt, die in der Regel von Unternehmen betrieben werden, die wissenschaftliche Forschung oder andere rechenintensive Aufgaben durchführen.
Maschinelles Lernen (ML) bezeichnet eine spezielle Disziplin der KI, die sich mit der Nutzung von Daten und Algorithmen befasst, um die Art und Weise zu imitieren, wie Menschen lernen. Deep Learning (DL) ist eine Unterart des maschinellen Lernens, bei der neuronale Netze verwendet werden, um den Entscheidungsprozess des menschlichen Gehirns zu simulieren. Die GPU-Technologie ist für den technologischen Fortschritt in beiden Bereichen von entscheidender Bedeutung.
Wenn es um ML und DL geht, unterstützen GPUs die Fähigkeit der Modelle, riesige Datensätze zu sortieren und daraus Schlüsse zu ziehen, ähnlich wie ein Mensch. GPUs verbessern insbesondere die Bereiche Speicher und Optimierung, da sie viele gleichzeitige Berechnungen durchführen können. Außerdem verbrauchen GPUs, die in ML und DL eingesetzt werden, weniger Ressourcen als CPUs, ohne dass dies zu Lasten der Leistung oder Genauigkeit geht.
Blockchain, das populäre Hauptbuch, das zur Aufzeichnung von Transaktionen und zur Verfolgung von Vermögenswerten in Geschäftsnetzwerken verwendet wird, stützt sich stark auf die GPU-Technologie, insbesondere wenn es um einen Schritt geht, der als „Ausführungsnachweis“ (Proof of Work) bezeichnet wird. In vielen weit verbreiteten Blockchains, wie z. B. Kryptowährungen, ist der Schritt des Arbeitsnachweises entscheidend für die Validierung einer Transaktion, sodass sie der Blockchain hinzugefügt werden kann.
Die Gaming-Branche nutzte erstmals in den 1990er Jahren die Leistungsfähigkeit von GPUs, um das gesamte Spielerlebnis durch mehr Geschwindigkeit und grafische Genauigkeit zu verbessern. Heutzutage ist das Personal Gaming aufgrund von hyperrealen Szenarien, Echtzeit-Interaktionen und riesigen, immersiven Gaming-Welten sehr rechenintensiv.
Trends im Gaming-Bereich wie Virtual Reality (VR), höhere Bildwiederholraten und höher aufgelöste Bildschirme hängen alle von GPUs ab, um Grafiken in anspruchsvolleren Rechenumgebungen schnell zu liefern.
Zu den GPUs für Spiele gehören AMD Radeon, Intel Arc und Nvidia GeForce RTX.
Traditionell waren lange Rendering-Zeiten ein großes Hindernis bei der Verwendung von Consumer- und professioneller Bearbeitungssoftware. Seit ihrer Erfindung haben GPUs die Verarbeitungszeiten und Rechenressourcen in Videobearbeitungsprogrammen wie Final Cut Pro und Adobe Premiere stetig reduziert.
Heutzutage können GPUs, die mit paralleler Verarbeitung und integrierter KI ausgestattet sind, die Bearbeitungsmöglichkeiten für alles, von professionellen Bearbeitungssuiten bis hin zu Smartphone-Apps, dramatisch beschleunigen.
Verbesserungen bei der Verarbeitung, der Leistung und der Grafikqualität haben GPUs zu einem wesentlichen Bestandteil des Wandels in der Content-Creation-Industrie gemacht. Heute können Content Creators, die mit einer leistungsstarken Grafikkarte und einem Hochgeschwindigkeits-Internetanschluss ausgestattet sind, realistische Inhalte erstellen, diese mit KI und maschinellem Lernen anreichern und sie schneller als je zuvor bearbeiten und an ein Live-Publikum streamen – und das alles vor allem dank der Fortschritte in der GPU-Technologie.
In HPC-Systemen nutzen GPUs parallele Verarbeitungsfunktionen, um rechenintensive Aufgaben wie komplexe mathematische Berechnungen und die Analyse großer Datenmengen in Bereichen wie der Arzneimittelforschung, der Energieerzeugung und der Astrophysik zu beschleunigen.
GPUs sind in vielen Branchen sehr gefragt, um das Erlebnis und die Schulungsmöglichkeiten komplexer, professioneller Anwendungen zu verbessern, z. B. bei Produktpräsentationen, CAD-Zeichnungen und medizinischen und seismischen oder geophysikalischen Darstellungen. GPUs sind von entscheidender Bedeutung für fortschrittliche Visualisierungen, die bei der Berufsausbildung von Feuerwehrleuten, Astronauten, Schullehrern und anderen mit 3D-Animation, KI und ML, fortschrittlichem Rendering und hyperrealistischen Virtual Reality (VR)- und Augmented Reality (AR)-Erlebnissen eingesetzt werden.
Darüber hinaus nutzen Ingenieure und Klimawissenschaftler Simulationsanwendungen, die von GPUs betrieben werden, um Wetterbedingungen, Flüssigkeitsdynamik, Astrophysik und das Verhalten von Fahrzeugen unter bestimmten Bedingungen vorherzusagen. Der Nvidia RTX ist einer der leistungsstärksten Grafikprozessoren, die für wissenschaftliche Visualisierungen und die Erforschung von Energiequellen verfügbar sind.
Angesichts der zunehmenden Verbreitung von KI und Anwendungen der generativen KI lohnt es sich, zwei weitere spezialisierte Verarbeitungsgeräte und ihren Vergleich mit GPUs zu untersuchen. Moderne Unternehmen verwenden alle drei Typen von Prozessoren – CPUs, GPUs und FPGAs – je nach ihren spezifischen Anforderungen.
Eine neuronale Verarbeitungseinheit (NPU) ist ein spezialisierter Computer-Mikroprozessor, der die Verarbeitungsfunktion des menschlichen Gehirns nachahmt. Eine NPU, auch bekannt als KI-Beschleuniger, KI-Chip oder Deep-Learning-Prozessor, ist ein Hardware-Beschleuniger, der entwickelt wurde, um KI-Neuronale Netze, Deep Learning und maschinelles Lernen zu beschleunigen.
Sowohl NPUs als auch GPUs verbessern die CPU eines Systems, weisen jedoch deutliche Unterschiede auf. Grafikprozessoren enthalten Tausende von Kernen, um die schnellen, präzisen Rechenaufgaben zu bewältigen, die für die Grafikwiedergabe und Spiele erforderlich sind. NPUs sind darauf ausgelegt, Workloads für KI und generative KI zu beschleunigen, indem sie den Datenfluss und die Speicherhierarchie in Echtzeit priorisieren, und das bei geringem Stromverbrauch und geringer Latenz.
Hochleistungs-GPUs eignen sich gut für Deep Learning oder KI-Anwendungen, da sie eine große Menge an Berechnungen in mehreren Kernen mit großen Mengen an verfügbarem Speicher bewältigen können. Field Programmable Gate Arrays (FPGAs) sind vielseitige Typen integrierter Schaltkreise, die für verschiedene Funktionen umprogrammiert werden können. Im Vergleich zu GPUS bieten FPGAs Flexibilität und Kosteneffizienz, um eine bessere Leistung bei Deep Learning-Anwendungen zu erzielen, die eine geringe Latenz erfordern, wie z. B. medizinische Bildgebung und Edge Computing.
Alle Links befinden sich außerhalb von IBM.
1 GPU as a Service Market Size, Share & Industry Analysis, Fortune Business Insights, Fortune Business Insights, 9. Dezember, 2024
IBM Cloud Virtual Server for VPC ist eine Familie von virtuellen Servern mit Intel x86, IBM Z und IBM LinuxONE, die auf IBM Cloud Virtual Private Cloud basieren.
Dedizierte IBM Cloud-Server bieten eine skalierbare Webhosting-Lösung mit unbegrenztem, kostenlosem Backhaul-Traffic und umfangreichen Anpassungsmöglichkeiten.
Schalten Sie mit IBM Cloud Consulting Services neue Funktionen frei und steigern Sie die geschäftliche Agilität. Entdecken Sie, wie Sie mit Hybrid-Cloud-Strategien und Expertenpartnerschaften gemeinsam Lösungen entwickeln, die digitale Transformation beschleunigen und die Leistung optimieren können.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io