Was ist neuromorphes Computing?

27. Juni 2024

Autoren

Cole Stryker

Editorial Lead, AI Models

Was ist neuromorphes Computing?

Neuromorphes Computing, auch bekannt als neuromorphes Engineering, ist ein Computeransatz, der die Funktionsweise des menschlichen Gehirns nachahmt. Dabei geht es um die Entwicklung von Hardware und Software, die neuronalen und synaptischen Strukturen und Funktionen des Gehirns simulieren, um Informationen zu verarbeiten.

Neuromorphes Rechnen mag wie ein neues Gebiet sein, aber seine Ursprünge reichen bis in die 1980er Jahre zurück. Es war das Jahrzehnt, in dem Misha Mahowald und Carver Mead die erste Netzhaut und die Cochlea aus Silizium sowie die ersten Siliziumneuronen und Synapsen entwickelten, die das neuromorphe Computerparadigma prägten.1

Heute, da Systeme der künstlichen Intelligenz (KI) skaliert werden, benötigen sie modernste Hard- und Software. Neuromorphes Computing kann als Wachstumsbeschleuniger für KI dienen, High-Performance-Computing beschleunigen und eines der Bausteine der künstlichen Superintelligenz sein. Es gibt sogar Experimente, um neuromorphes Computing mit Quantencomputing zu kombinieren.2

Neuromorphic Computing wurde von der Unternehmensberatung Gartner als eine der aufstrebenden Top-Technologien für Unternehmen bezeichnet.3 Ähnlich stellt das Dienstleistungsunternehmen PwC fest, dass neuromorphes Computing eine wichtige Technologie für Organisationen ist, die es zu erkunden gilt. Es entwickelt sich schnell weiter, aber ist noch nicht ausgereift genug, um eine breite Anwendung zu finden.4

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

So funktioniert neuromorphes Computing

Da neuromorphes Computing vom menschlichen Gehirn inspiriert ist, lehnt es sich stark an Biologie und Neurowissenschaften an.

Nach Angaben des Queensland Brain Institute sind Neuronen „die grundlegenden Einheiten des Gehirns und Nervensystems“.5 Als Boten leiten diese Neuronenzellen Informationen zwischen verschiedenen Bereichen des Gehirns und an andere Körperteile weiter. Wenn ein Neuron aktiv wird oder „ausschlägt“, löst es die Freisetzung chemischer und elektrischer Signale aus, die über ein Netz von Verbindungspunkten, den Synapsen, übertragen werden und es den Neuronen ermöglichen, miteinander zu kommunizieren..6

Diese neurologischen und biologischen Mechanismen werden in neuromorphen Computersystemen durch Spiking Neural Networks (SNNs) modelliert. Ein Spiking Neural Networks ist eine Art künstliches Neural Networks, das aus Spiking-Neuronen und Synapsen besteht.

Spekulierende Neuronen speichern und verarbeiten Daten ähnlich wie biologische Neuronen, wobei jedes Neuron seine eigenen Ladungs-, Verzögerungs- und Schwellenwerte hat. Synapsen erzeugen Bahnen zwischen Neuronen, denen auch Verzögerungs- und Gewichtungswerte zugeordnet sind. Diese Werte – Neuronenladungen, neuronale und synaptische Verzögerungen, Neuronenschwellen und synaptische Gewichte – können alle in neuromorphen Computersystemen programmiert werden.7

In der neuromorphen Architektur werden Synapsen als transistorbasierte synaptische Geräte dargestellt, die Schaltkreise zur Übertragung elektrischer Signale verwenden. Synapsen enthalten typischerweise eine Lern-Komponente, die ihre Gewichtswerte im Laufe der Zeit entsprechend der Aktivität innerhalb des Spiking Neural Networks verändert7

Im Gegensatz zu herkömmlichen neuralen Netzen berücksichtigen SNNs das Timing in den eigenen Abläufen. Der Ladungswert eines Neurons akkumuliert sich im Laufe der Zeit. Wenn diese Ladung den zugehörigen Schwellenwert des Neurons erreicht, steigt sie an und propagiert Informationen entlang seines synaptischen Netzes. Übersteigt der Ladungswert jedoch nicht den Schwellenwert, verflüchtigt er sich und tritt schließlich „aus“. Darüber hinaus sind SNNs ereignisgesteuert, wobei die Verzögerungswerte von Neuronen und Synapsen eine asynchrone Weitergabe von Informationen ermöglichen7

Mixture of Experts | Podcast

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Neuromorphe Hardware

In den letzten Jahrzehnten wurden viele Fortschritte in der neuromorphen Datenverarbeitung in Form von neuromorpher Hardware erzielt.

Zu den ersten Implementierungen im akademischen Bereich zählte Neurogrid der Stanford University, dessen gemischtes analog-digitales Multichip-System „eine Million Neuronen mit Milliarden von synaptischen Verbindungen in Echtzeit simulieren kann.“8 Mittlerweile hat das Forschungszentrum IMEC einen selbstlernenden neuromorphen Chip entwickelt.9

Regierungsbehörden haben auch neuromorphe Forschungsbemühungen unterstützt. Das Human Brain Project der Europäischen Union beispielsweise war eine 10-jährige Initiative, die im Jahr 2023 endete und darauf abzielte, das Gehirn besser zu verstehen, neue Behandlungsmethoden für Gehirnerkrankungen zu finden und neue vom Gehirn inspirierte Technologien zu entwickeln.

Zu diesen Technologien gehören die groß angelegten neuromorphen Maschinen SpiNNaker und BrainScaleS. SpiNNaker läuft in Echtzeit auf digitalen Multi-Core-Chips mit einem paketbasierten Netzwerk zur Optimierung des Spike-Austauschs. BrainScaleS ist eine beschleunigte Maschine, die analoge elektronische Modelle von Neuronen und Synapsen nachbildet. Es verfügt über ein Wafer-Scale-Chip-System der ersten Generation (genannt BrainScaleS-1) und ein Einzelchip-System der zweiten Generation (genannt BrainScaleS-2).10

In der Technologiebranche gehören zu den neuromorphen Prozessoren Loihi von Intel, NeuronFlow von GrAI Matter Labs und die neuromorphen Chips TrueNorth und der nächsten Generation NorthPole von IBM.

Die meisten neuromorphen Geräte bestehen aus Silizium und verwenden die CMOS-Technologie (Complementary Metal-Oxide Semiconductor, Komplementärer Metalloxid-Halbleiter). Die Forscher untersuchen aber auch neue Materialtypen, wie ferroelektrische und Phasenwechselmaterialien. Nicht-flüchtige elektronische Speicherelemente, so genannte Memristoren (eine Kombination aus „Memory“ und „Resistor“), sind ein weiterer Baustein, um die Zusammenlegung von Speicher und Datenverarbeitung in Spike-Neuronen zu erreichen.

Neuromorphe Computeralgorithmen

Im Softwarebereich umfasst die Entwicklung von Trainings- und Lernalgorithmen für neuromorphes Computing sowohl maschinelles Lernen als auch nicht-maschinelles Lernen. Zum Beispiel:7

Deep Learning

Für das Inferencing können vortrainierte Deep Neural Networks mithilfe von Strategien wie der Normalisierung von Gewichten oder Aktivierung in Spiking Neural Networks umgewandelt werden. Ein Deep Neural Network kann auch so trainiert werden, dass seine Neuronen wie Spike-Neuronen aktiviert werden.

Evolutionäre Algorithmen

Diese bioinspirierten Algorithmen nutzen Prinzipien der biologischen Evolution wie Mutation, Reproduktion und Selektion. Evolutionäre Algorithmen können verwendet werden, um SNNs zu entwerfen oder zu trainieren, indem ihre Parameter (z. B. Verzögerungen und Schwellenwerte) und ihre Struktur (z. B. die Anzahl der Neuronen und die Art der Verknüpfung über Synapsen) im Laufe der Zeit verändert und optimiert werden.

Graphen

Spiking Neural Networks eignen sich gut für eine graphische Darstellung, wobei ein SNN die Form eines gerichteten Graphen hat. Wenn einer der Knoten im Diagramm einen Anstieg verursacht, stimmt der Zeitpunkt, zu dem auch andere Knoten seinen Höhepunkt erreichen, damit überein, wie lang der kürzeste Pfad vom Ursprungsknoten ist.

Plastizität

In den Neurowissenschaften bezieht sich Neuroplastizität auf die Fähigkeit des menschlichen Gehirns und Nervensystems, seine neuronalen Bahnen und Synapsen als Reaktion auf eine Verletzung zu verändern. In der neuromorphen Architektur wird die synaptische Plastizität typischerweise durch Spike-Timing-abhängige Plastizität implementiert. Bei diesem Vorgang werden die Gewichte der Synapsen entsprechend den relativen Spike-Zeiten der Neuronen angepasst.

Reservoir-Computing

Reservoir-Computing, das auf neural networks basiert, verwendet ein „Reservoir“, um Eingabe in einen höherdimensionalen Rechenraum umzuleiten, wobei ein Auslesemechanismus darauf trainiert ist, die Ausgabe des Reservoirs zu lesen.

Beim neuromorphen Computing werden die Eingabe-Signale in ein Spiking Neural Network eingespeist, das als Reservoir fungiert. Das SNN ist nicht trainiert. Stattdessen verlässt es sich auf die rekurrenten Verbindungen innerhalb des Netzwerks und die synaptischen Verzögerungen, um die Eingaben auf einen höherdimensionalen Berechnungsraum abzubilden.

Vorteile von neuromorphem Computing

Neuromorphe Systeme bieten eine Menge rechnerischer Möglichkeiten. Hier einige der potenziellen Vorteile, die diese Art von Computerarchitektur bietet:

Anpassungsfähigkeit

Als eine vom Gehirn inspirierte Technologie beinhaltet das neuromorphe Computing auch den Begriff der Plastizität. Neuromorphe Geräte sind für das Lernen in Echtzeit konzipiert und passen sich kontinuierlich an sich entwickelnde Stimuli in Form von Eingaben und Parametern an. Das bedeutet, dass sie sich durch die Lösung neuartiger Probleme auszeichnen könnten.

Energieeffizienz

Wie bereits erwähnt, sind neuromorphe Systeme ereignisbasiert, d. h. Neuronen und Synapsen verarbeiten die Verarbeitung als Reaktion auf andere Neuronen, die ihren Wert erhöhen. Als Ergebnis verbraucht nur das Segment, das Spitzenlasten verursacht, Power, während der Rest des Netzwerks inaktiv bleibt. Dies führt zu einem effizienteren Energieverbrauch.

Hohe Leistung

Die meisten modernen Computer, die auch als von-Neumann-Computer bekannt sind, verfügen über getrennte zentrale Verarbeitungseinheiten und Speichereinheiten, und die Übertragung von Daten zwischen diesen Einheiten kann einen Engpass verursachen, der sich auf die Geschwindigkeit auswirkt. Neuromorphe Computersysteme hingegen speichern und verarbeiten Daten in einzelnen Neuronen, was im Vergleich zur Von-Neumann-Architektur zu geringerer Latenz und schnelleren Berechnungen führt.

Parallele Verarbeitung

Aufgrund der asynchronen Natur eines SNN können einzelne Neuronen gleichzeitig verschiedene Vorgänge ausführen. Theoretisch können neuromorphe Geräte also so viele Aufgaben ausführen, wie es Neuronen zu einem bestimmten Zeitpunkt gibt. Neuromorphe Architekturen verfügen daher über immense Parallelverarbeitungsfähigkeiten, die es ihnen ermöglichen, Funktionen schnell auszuführen.

Herausforderungen beim neuromorphen Computings

Neuromorphes Computing ist noch ein junges Gebiet. Und wie jede Technologie in ihrem Anfangsstadium stehen auch neuromorphe Systeme vor einigen Herausforderungen:

Verminderte Genauigkeit

Die Umwandlung von tiefen Neural Networks in Spiking Neural Neural Networksetworks kann zu Ungenauigkeiten führen. Darüber hinaus können die in neuromorpher Hardware verwendeten Memristoren Zyklus-zu-Zyklus- und Gerätevariationen aufweisen, die sich auf die Genauigkeit auswirken können, sowie Grenzwerte für synaptische Gewichtungen, die die Präzision verringern können.7

Fehlende Benchmarks und Standards

Da neuromorphe Technologie noch sehr jung ist, mangelt es ihr an Standards für Architektur, Hardware und Software. Neuromorphe Systeme verfügen auch nicht über klar definierte und etablierte Benchmarks, Beispieldatensätze, Testaufgaben und Metriken, sodass es schwierig ist, die Leistung zu bewerten und die Effektivität aufzuzeigen.

Eingeschränkte Zugänglichkeit und Software

Die meisten algorithmischen Ansätze für neuromorphes Rechnen verwenden immer noch Software, die für von-Neumann-Hardware entwickelt wurde, was die Ergebnisse auf das beschränken kann, was die von-Neumann-Architektur erreichen kann. APIs (Anwendungsprogrammierschnittstellen), Kodierungsmodelle und Programmiersprachen für neuromorphe Systeme müssen jedoch erst noch entwickelt oder einer breiteren Öffentlichkeit zugänglich gemacht werden.

Steile Lernkurve

Neuromorphes Computing ist ein komplexes Gebiet, das Disziplinen wie Biologie, Informatik, Elektrotechnik, Mathematik, Neurowissenschaften und Physik umfasst. Dadurch ist es außerhalb des Kontextes eines akademischen Labors, das auf neuromorphe Forschung spezialisiert ist, schwer zu verstehen.

Anwendungsfall für neuromorphes Computing

Gegenwärtig gibt es nur wenige reale Anwendungen für neuromorphe Systeme, aber das Berechnungsparadigma kann möglicherweise in diesen Anwendungsfällen eingesetzt werden:

Autonome Fahrzeuge

Aufgrund seiner hohen Leistung und der um ein Vielfaches höheren Energieeffizienz kann das neuromorphe Computing dazu beitragen, die Navigationsfähigkeiten eines autonomen Fahrzeugs zu verbessern. So sind schnellere Kurskorrekturen und eine bessere Kollisionsvermeidung möglich, während gleichzeitig der Energieverbrauch gesenkt wird.

Cybersicherheit

Neuromorphe Systeme können dabei helfen, ungewöhnliche Muster oder Aktivitäten zu erkennen, die auf Cyberangriffe oder Sicherheitsverletzungen hinweisen könnten. Und diese Bedrohungen können dank der geringen Latenz und der schnellen Berechnung neuromorpher Geräte schnell abgewehrt werden.

Edge KI

Aufgrund der Eigenschaften der neuromorphen Architektur ist sie für Edge-KI geeignet. Sein niedriger Stromverbrauch kann bei der kurzen Akkulaufzeit von Geräten wie Smartphones und Wearables helfen, während seine Anpassungsfähigkeit und sein ereignisgesteuerter Charakter zu den Informationsverarbeitungsmethoden von Fernsensoren, Drohnen und anderen Geräten des Internet der Dinge (IoT) passen.

Mustererkennung

Aufgrund seiner umfangreichen Funktionen zur parallelen Verarbeitung kann neuromorphes Computing in Anwendungen des maschinellen Lernens zur Erkennung von Mustern in natürlicher Sprache und Sprache, zur Analyse medizinischer Bilder und zur Verarbeitung von Bildsignalen aus fMRI-Gehirnscans und Elektroenzephalogramm (EEG)-Tests, die die elektrische Aktivität im Gehirn messen, eingesetzt werden.

Robotertechnik

Als anpassbare Technologie kann das neuromorphe Computing dazu eingesetzt werden, die Echtzeit-Lern- und Entscheidungskompetenz eines Roboters zu verbessern, sodass dieser Objekte besser erkennt, sich in komplexen Fabrikanlagen zurechtfindet und schneller am Fließband arbeiten kann.

Weitere Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Live-Demo buchen
Fußnoten

1 Carver Mead erhält den Lifetime Contribution Award für Neuromorphic Engineering, Caltech, 7. Mai 2024.
2 Neuromorphic Quantencomputing, Quromorphic, abgerufen am 21. Juni 2024.
3 30 Emerging Technologies That Will Guide Your Business Decisions, Gartner, 12. Februar 2024.
4 The new Essential Eight technologies: what you need to know, PwC, 15. November 2023.
5 What is a neuron?, Queensland Brain Institute, Zugriff: 21. Juni 2024.
6 Action potentials and synapses, Queensland Brain Institute, Zugriff: 21. Juni 2024.
7 Opportunities for neuromorphic computing algorithms and applications, Nature, 31. Januar 2022.
8 Neurogrid: A Mixed-Analog-Digital Multichip System for Large-Scale Neural Simulations, IEEE, 24. April 2014.
9 IMEC demonstrates self-learning neuromorphic chip that composes music, IMEC, 16. Mai 2017.
10 Neuromorphic computing, Human Brain Project, Zugriff: 21. Juni 2024.