Neuronale Prozessoreinheiten (NPU) und Grafikprozessoreinheiten (GPU) ergänzen beide den Hauptprozessor (CPU) eines Systems, und die grundlegenden Unterschiede zwischen den beiden bestehen in der Chiparchitektur und den Verarbeitungsfunktionen.
Grafikprozessoren enthalten Tausende von Kernen, um die schnellen, präzisen Rechenaufgaben zu bewältigen, die für die Grafikwiedergabe und Spiele erforderlich sind. NPU priorisieren Datenfluss und Speicherhierarchie, um KI-Workloads besser in Echtzeit verarbeiten zu können.
Beide Arten von Mikroprozessoren eignen sich hervorragend für die in der KI verwendeten parallelen Verarbeitungsprozesse, aber NPU sind speziell für maschinelles Lernen (ML) und Aufgaben der künstlichen Intelligenz konzipiert.
Neuronale Prozessoreinheiten (NPUs) erleben gerade einen Boom, aber warum stiehlt diese fast ein Jahrzehnt alte Technologie plötzlich die Show? Die Antwort hat mit den jüngsten Fortschritten im Bereich der generativen KI (künstliche Intelligenz) zu tun, die das öffentliche Interesse an KI-Anwendungen und damit auch an KI-Beschleuniger-Chips wie NPU und GPU wiederbelebt.
Branchen-Newsletter
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Die NPU-Architektur unterscheidet sich deutlich von der der CPU oder GPU. CPU sind für die sequentielle Ausführung von Anweisungen ausgelegt und verfügen über weniger Prozessorkerne als GPU, die wesentlich mehr Kerne haben und für anspruchsvolle Operationen konzipiert sind, welche ein hohes Maß an paralleler Verarbeitung erfordern.
Während CPU mit parallelen Verarbeitungsaufgaben zu kämpfen haben und GPU durch einen hohen Energieverbrauch hervorstechen, profitiert die NPU-Architektur von der Art und Weise, wie menschliche Gehirne Daten verarbeiten. NPU fügen nicht nur zusätzliche Kerne hinzu, sondern erreichen durch eine Reihe einzigartiger Funktionen und Techniken eine hohe Parallelität bei geringerem Energieverbrauch:
Beim Vergleich von NPU und GPU kann es sinnvoll sein, die Leistung anhand der Hauptmerkmale zu bewerten.
Die Einbindung von NPUs in integrierte Systeme bietet in Bezug auf Geschwindigkeit, Effizienz und Komfort eine Reihe entscheidender Vorteile gegenüber herkömmlichen Prozessoren. Zu den Vorteilen zählen:
Als Coprozessor sind NPUs seit einigen Jahren im Einsatz und werden in der Regel in GPUs integriert, um Unterstützung für bestimmte sich wiederholende Aufgaben zu bieten. NPUs sind weiterhin wertvoll in der Verbrauchertechnologie (wie AI Copilot von Microsoft Windows) und in verschiedenen Internet der Dinge (IoT)-Geräten (wie intelligenten Lautsprechern, die NPUs zur Verarbeitung der Spracherkennung verwenden).
Die jüngsten Entwicklungen in der KI-Technologie haben diesen Prozessortyp jedoch stärker ins Rampenlicht gerückt, da fortschrittlichere KI-Modelle KI-Tools für Verbraucher in den Fokus der Öffentlichkeit gerückt haben. Das System wurde speziell für anspruchsvolle KI-Aufgaben wie die Verarbeitung natürlicher Sprache entwickelt, da das Interesse an KI für Verbraucher deutlich zunimmt und damit auch das Interesse an NPUs.
Zu den wichtigsten Anwendungsfällen für NPUs gehören die folgenden:
GPUs wurden schon lange vor den NPUs für Rechenaufgaben bevorzugt, die eine leistungsintensive Parallelverarbeitung erforderten. Ursprünglich für die Verarbeitung komplexer Grafiken in Videospielen und Bild-/Videosoftware entwickelt, werden GPUs weiterhin in PC- und Konsolenspielen sowie in der Virtual und Augmented Reality, im High-Performance Computing (HPC), beim 3D-Rendering, in Rechenzentren und anderen Anwendungen eingesetzt.
Nachfolgend erhalten Sie einen genaueren Einblick in einige der wichtigsten modernen Anwendungen der GPU-Technologie:
NPUs werden am besten in integrierten Systemen verwendet, die Abläufe optimieren, um bestimmte Arten von Ressourcen bestimmten Arten von Prozessoren zuzuweisen. CPUs wurden für präzises, lineares Computing entwickelt und lassen sich am besten für allgemeine Prozesse wie System- und Ressourcenverwaltung einsetzen, während GPUs auf Workloads spezialisiert sind, die von parallelem Computing einen Vorteil haben.
Da sich Anwendungen der künstlichen Intelligenz immer mehr durchsetzen, lassen sich noch spezialisiertere NPUs am besten als Ergänzung zu CPUs und GPUs einsetzen, um KI- und ML-spezifische Aufgaben mit geringer Latenz und hoch energieeffizienter Parallelverarbeitung zu erledigen.
Nutzen Sie Open-Source-Frameworks und -Tools, um KI und maschinelles Lernen auf Ihre wertvollsten Unternehmensdaten auf IBM zSystems-Mainframes anzuwenden.
Mit einer Hybrid-by-Design-Strategie bietet IBM KI-Infrastrukturlösungen um die Auswirkungen in Ihrem gesamten Unternehmen zu beschleunigen.
Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting und bauen Sie ein erkenntnisorientiertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.