Eine neuronale Verarbeitungseinheit (NPU) ist ein spezialisierter Computer-Mikroprozessor, der die Verarbeitungsfunktion des menschlichen Gehirns nachahmt. Sie sind optimiert für künstliche Intelligenz (KI), neuronale Netze, Deep Learning sowie maschinelle Lernaufgaben und -anwendungen.
Im Unterschied zu Allzweck-Zentraleinheiten (CPUs) oder Grafikprozessoren (GPUs) sind NPUs darauf zugeschnitten, KI-Aufgaben und -Workloads zu beschleunigen, z. B. die Berechnung neuronaler Netzschichten, die aus Skalar-, Vektor- und Tensorberechnungen bestehen.
NPUs, auch als KI-Chip oder KI-Beschleuniger bekannt, werden in der Regel in heterogenen Computerarchitekturen verwendet, die mehrere Prozessoren (z. B. CPUs und GPUs) kombinieren. Große Rechenzentren können eigenständige NPUs verwenden, die direkt an die Hauptplatine eines Systems angeschlossen sind. Die meisten Verbraucheranwendungen, wie Smartphones, Mobilgeräte und Laptops, kombinieren die NPU jedoch mit anderen Coprozessoren auf einem einzigen Halbleiter-Mikrochip, dem sogenannten System-on-Chip (SoC).
Durch die Integration einer dedizierten NPU sind Hersteller in der Lage, generative KI-Apps auf dem Gerät anzubieten, die KI-Anwendungen, KI-Workloads und Algorithmen für maschinelles Lernen in Echtzeit mit relativ geringem Stromverbrauch und hohem Durchsatz verarbeiten können.
Branchen-Newsletter
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Neuronale Prozessoreinheiten (NPUs) eignen sich gut für Aufgaben, die paralleles Computing mit geringer Latenz erfordern, wie z. B. die Verarbeitung von Deep-Learning-Algorithmen, Spracherkennung, Verarbeitung natürlicher Sprache, Foto- und Videoverarbeitung sowie Objekterkennung.
Zu den wichtigsten Funktionen von NPUs gehören die folgenden:
Basierend auf den neuronalen Netzen des Gehirns simulieren neuronale Prozessoreinheiten (NPUs) das Verhalten menschlicher Neuronen und Synapsen auf der Schaltkreisebene. Dies ermöglicht die Verarbeitung von Deep-Learning-Befehlssätzen, bei denen eine Anweisung die Verarbeitung einer Reihe virtueller Neuronen abschließt.
Im Gegensatz zu herkömmlichen Prozessoren sind NPUs nicht für präzise Berechnungen konzipiert. Stattdessen werden NPUs speziell für Problemlösungsfunktionen entwickelt und können sich im Laufe der Zeit verbessern, indem sie aus verschiedenen Arten von Daten und Eingaben lernen. Durch die Nutzung des maschinellen Lernens können KI-Systeme mit NPUs schneller angepasste Lösungen bereitstellen, ohne dass mehr manuelle Programmierung erforderlich ist.
Als herausragende Funktion bieten NPUs eine hervorragende Parallelverarbeitung und sind in der Lage, KI-Operationen durch vereinfachte Hochleistungskerne zu beschleunigen, die nicht mehr mehrere Arten von Aufgaben ausführen müssen. Eine NPU enthält spezielle Module für Multiplikation und Addition, Aktivierung, 2D-Datenoperationen und Dekomprimierung. Das spezialisierte Multiplikations- und Additionsmodul wird verwendet, um Operationen durchzuführen, die für die Verarbeitung von Anwendungen relevant sind, wie z. B. die Berechnung von Matrixmultiplikation und -addition, Konvolution, Skalarprodukt und anderen Funktionen.
Während herkömmliche Prozessoren Tausende von Anweisungen benötigen, um diese Art der Neuronenverarbeitung abzuschließen, kann eine NPU einen ähnlichen Vorgang mit nur einer einzigen abschließen. Eine NPU integriert außerdem Speicher und Berechnung über synaptische Gewichtungen, eine flexible Rechenvariable, die dem Netzwerkknoten zugewiesen wird und welche die Wahrscheinlichkeit eines „korrekten“ oder „gewünschten“ Ergebnisses angibt, das sich im Laufe der Zeit anpassen oder „lernen“ kann, was zu einer verbesserten betrieblichen Effizienz führt.
Während sich die NPU-Entwicklung ständig weiterentwickelt, haben Tests gezeigt, dass einige NPUs eine um mehr als das Hundertfache höhere Leistung als vergleichbare GPU bei gleichem Energieverbrauch aufweisen.
Neuronale Prozessoreinheiten (NPUs) sind nicht dafür konzipiert und sollen auch nicht herkömmliche CPU und GPU ersetzen. Die Architektur einer NPU verbessert jedoch das Design beider Prozessoren, um unübertroffene und effizientere Parallelität und maschinelles Lernen zu bieten. NPU sind in der Lage, allgemeine Abläufe zu verbessern (aber am besten für bestimmte Arten von allgemeinen Aufgaben geeignet), und bieten in Kombination mit CPU und GPU mehrere wertvolle Vorteile gegenüber herkömmlichen Systemen.
Zu den wichtigsten Vorteilen zählen:
In der Welt der klassischen Informatik wird die Zentraleinheit (CPU) als das „Gehirn“ des Computers betrachtet. Die CPU verarbeitet die meisten herkömmlichen Rechenaufgaben und ist für eine breite Palette potenzieller Anwendungen verantwortlich. Obwohl es viele verschiedene Typen gibt, führen im Allgemeinen alle CPU die Abläufe in linearer Reihenfolge aus und reagieren auf Anfragen in der Reihenfolge, in der sie eingehen.
Von den 1950er bis in die 1990er Jahre trugen CPU die Hauptlast praktisch der gesamten Computerverarbeitung, indem sie Anweisungen ausführten, um Programme auszuführen, Systeme zu steuern und die Eingabe/Ausgabe (E/A) zu verwalten.
Anspruchsvolle Anwendungen brachten regelmäßig Generationen von CPU-Designs an ihre Hardwaregrenzen, was oft zu einer erheblichen Verlangsamung oder sogar zu Systemausfällen führte. Doch mit dem Aufkommen von Computerspielen und computergestütztem Design (CAD) in den 1980er Jahren benötigte die Branche eine schnellere und effizientere Lösung für das Rendern von Computergrafiken.
Die Grafikprozessoreinheit (GPU) wurde ursprünglich entwickelt, um rechenintensive Bildverarbeitungsaufgaben von der Haupt-CPU auszulagern. Während GPU tendenziell weniger Kerne für lineare Operationen nutzen, verfügen GPU über Hunderte bis Tausende von Kernen mit der Fähigkeit zur Parallelverarbeitung. Bei diesem Verfahren werden große Aufgaben in kleinere Probleme zerlegt, die von mehreren Prozessoren und/oder Kernen gleichzeitig gelöst werden können.
Ursprünglich für die Video- und Bildverarbeitung entwickelt, haben die Parallelverarbeitungsfunktionen von GPU die Hardware in einzigartiger Weise für andere anspruchsvolle Rechenanwendungen geeignet gemacht, wie z. B. Blockchain-bezogene Aufgaben und KI. GPU sind zwar nicht der einzige Prozessortyp, der parallele Verarbeitung oder Parallelrechnen ausführen kann, aber sie eignen sich gut für Parallelität. Allerdings haben auch GPUs ihre Grenzen und haben typischerweise einen extrem hohen Energieverbrauch, um anspruchsvollere Operationen auszuführen. Bei GPU geht eine höhere Leistung mit höheren Energiekosten einher.
NPU und andere KI-Beschleuniger bieten effizientere Alternativen. NPU, die speziell für KI-Operationen entwickelt wurden, integrieren und verbessern die fortschrittliche Parallelität von GPU und bieten hohe Leistung bei geringerem Stromverbrauch (und den zusätzlichen Vorteil eines geringeren physischen Platzbedarfs).
Als aufstrebende Technologie bieten viele führende Computer- und Hardwarehersteller, darunter Microsoft, Intel, Nvidia, Qualcomm und Samsung, entweder eigenständige neuronale Prozessoreinheiten (NPU) oder integrierte Varianten wie die Apple Neural Engine an.
Die Integration von NPU in Unterhaltungselektronik bietet eine Vielzahl von Vorteilen, wie z. B. eine verbesserte Bilderkennung und Optimierung für KI-fähige Kameras, um den Hintergrund bei Videoanrufen besser zu verwischen. Einige zusätzliche Anwendungen für NPUs sind die folgenden.
Als eine Art KI-Beschleuniger sind NPUs speziell darauf ausgelegt, die Leistung von KI- und ML-Systemen wie neuronalen Netzen zu verbessern. Als Ergänzung zu GPUs bietet die verbesserte Parallelität von NPUs dramatische Verbesserungen für große Sprachmodelle, die eine adaptive Verarbeitung mit geringer Latenz erfordern, um Multimediasignale zu interpretieren, Spracherkennung durchzuführen und die natürliche Sprache und Kunst zu erzeugen, die in Werkzeugen wie intelligenteren Chatbots und generativen KI- Bild- und Videoanwendungen verwendet werden.
Mit ihren außergewöhnlichen Parallelverarbeitungs- und Selbstlernfunktionen eignen sich NPU gut für vernetzte IoT-Geräte wie Wearables, Sprachassistenten und intelligente Haushaltsgeräte.
KI und maschinelles Lernen sind ein großer Segen für Rechenzentren, die ihre Ressourcen optimieren wollen. Leistungsstarke und energieeffiziente NPUs bieten einen enormen Mehrwert für Rechenzentren, die ein besseres Ressourcenmanagement für Cloud Computing bieten.
Autonome Fahrzeuge wie Drohnen oder selbstfahrende Autos und Lkw profitieren stark von den Echtzeitverarbeitungsfunktionen von NPU, die eine schnellere und bessere Kurskorrektur auf Basis von Multimedia-Sensoreingaben ermöglichen. Mit unübertroffener paralleler Verarbeitung können NPU autonomen Fahrzeugen helfen, sich schnell entwickelnde Eingaben wie Verkehrsschilder, Verkehrsmuster und sogar unerwartete Hindernisse zu interpretieren und zu verarbeiten.
Während Cloud Computing fortschrittliche externe Daten- und Ressourcenlösungen für IoT, intelligente Geräte und andere persönliche Computergeräte bietet, zielen Edge Computing und Edge AI darauf ab, kritische, entscheidende Daten- und Rechenressourcen physisch näher an die Benutzer zu bringen. Dies reduziert die Latenz, senkt den Energieverbrauch und stärkt die Privatsphäre. Da NPU weniger Energie benötigen und einen kleineren Speicherbedarf haben, werden sie zu einer wertvollen Komponente im Bereich Edge Computing und On-Device KI.
NPUs sind geschickt in der Bewältigung von Aufgaben, die maschinelles Lernen und Computer Vision erfordern, und bieten eine wichtige Unterstützung für die Entwicklung der Robotertechnikbranche. KI-gestützte Robotertechnik, von Heimassistenten bis hin zu automatisierten chirurgischen Werkzeugen, sind auf NPUs angewiesen, um die Fähigkeit zu entwickeln, ihre Umgebungen zu erkennen, von ihnen zu lernen und auf sie zu reagieren.
Nutzen Sie Open-Source-Frameworks und -Tools, um KI und maschinelles Lernen auf Ihre wertvollsten Unternehmensdaten auf IBM zSystems-Mainframes anzuwenden.
Mit einer Hybrid-by-Design-Strategie bietet IBM KI-Infrastrukturlösungen um die Auswirkungen in Ihrem gesamten Unternehmen zu beschleunigen.
Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting und bauen Sie ein erkenntnisorientiertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.