Neuromorphes Computing, auch bekannt als neuromorphes Engineering, ist ein Computeransatz, der die Funktionsweise des menschlichen Gehirns nachahmt. Dabei geht es um die Entwicklung von Hardware und Software, die neuronalen und synaptischen Strukturen und Funktionen des Gehirns simulieren, um Informationen zu verarbeiten.
Neuromorphes Rechnen mag wie ein neues Gebiet sein, aber seine Ursprünge reichen bis in die 1980er Jahre zurück. Es war das Jahrzehnt, in dem Misha Mahowald und Carver Mead die erste Netzhaut und die Cochlea aus Silizium sowie die ersten Siliziumneuronen und Synapsen entwickelten, die das neuromorphe Computerparadigma prägten.1
Heute, da Systeme der künstlichen Intelligenz (KI) skaliert werden, benötigen sie modernste Hard- und Software. Neuromorphes Computing kann als Wachstumsbeschleuniger für KI dienen, High-Performance-Computing beschleunigen und eines der Bausteine der künstlichen Superintelligenz sein. Es gibt sogar Experimente, um neuromorphes Computing mit Quantencomputing zu kombinieren.2
Neuromorphic Computing wurde von der Unternehmensberatung Gartner als eine der aufstrebenden Top-Technologien für Unternehmen bezeichnet.3 Ähnlich stellt das Dienstleistungsunternehmen PwC fest, dass neuromorphes Computing eine wichtige Technologie für Organisationen ist, die es zu erkunden gilt. Es entwickelt sich schnell weiter, aber ist noch nicht ausgereift genug, um eine breite Anwendung zu finden.4
Da neuromorphes Computing vom menschlichen Gehirn inspiriert ist, lehnt es sich stark an Biologie und Neurowissenschaften an.
Nach Angaben des Queensland Brain Institute sind Neuronen „die grundlegenden Einheiten des Gehirns und Nervensystems“.5 Als Boten leiten diese Neuronenzellen Informationen zwischen verschiedenen Bereichen des Gehirns und an andere Körperteile weiter. Wenn ein Neuron aktiv wird oder „ausschlägt“, löst es die Freisetzung chemischer und elektrischer Signale aus, die über ein Netz von Verbindungspunkten, den Synapsen, übertragen werden und es den Neuronen ermöglichen, miteinander zu kommunizieren..6
Diese neurologischen und biologischen Mechanismen werden in neuromorphen Computersystemen durch Spiking Neural Networks (SNNs) modelliert. Ein Spiking Neural Networks ist eine Art künstliches Neural Networks, das aus Spiking-Neuronen und Synapsen besteht.
Spekulierende Neuronen speichern und verarbeiten Daten ähnlich wie biologische Neuronen, wobei jedes Neuron seine eigenen Ladungs-, Verzögerungs- und Schwellenwerte hat. Synapsen erzeugen Bahnen zwischen Neuronen, denen auch Verzögerungs- und Gewichtungswerte zugeordnet sind. Diese Werte – Neuronenladungen, neuronale und synaptische Verzögerungen, Neuronenschwellen und synaptische Gewichte – können alle in neuromorphen Computersystemen programmiert werden.7
In der neuromorphen Architektur werden Synapsen als transistorbasierte synaptische Geräte dargestellt, die Schaltkreise zur Übertragung elektrischer Signale verwenden. Synapsen enthalten typischerweise eine Lern-Komponente, die ihre Gewichtswerte im Laufe der Zeit entsprechend der Aktivität innerhalb des Spiking Neural Networks verändert7
Im Gegensatz zu herkömmlichen neuralen Netzen berücksichtigen SNNs das Timing in den eigenen Abläufen. Der Ladungswert eines Neurons akkumuliert sich im Laufe der Zeit. Wenn diese Ladung den zugehörigen Schwellenwert des Neurons erreicht, steigt sie an und propagiert Informationen entlang seines synaptischen Netzes. Übersteigt der Ladungswert jedoch nicht den Schwellenwert, verflüchtigt er sich und tritt schließlich „aus“. Darüber hinaus sind SNNs ereignisgesteuert, wobei die Verzögerungswerte von Neuronen und Synapsen eine asynchrone Weitergabe von Informationen ermöglichen7
In den letzten Jahrzehnten wurden viele Fortschritte in der neuromorphen Datenverarbeitung in Form von neuromorpher Hardware erzielt.
Zu den ersten Implementierungen im akademischen Bereich zählte Neurogrid der Stanford University, dessen gemischtes analog-digitales Multichip-System „eine Million Neuronen mit Milliarden von synaptischen Verbindungen in Echtzeit simulieren kann.“8 Mittlerweile hat das Forschungszentrum IMEC einen selbstlernenden neuromorphen Chip entwickelt.9
Regierungsbehörden haben auch neuromorphe Forschungsbemühungen unterstützt. Das Human Brain Project der Europäischen Union beispielsweise war eine 10-jährige Initiative, die im Jahr 2023 endete und darauf abzielte, das Gehirn besser zu verstehen, neue Behandlungsmethoden für Gehirnerkrankungen zu finden und neue vom Gehirn inspirierte Technologien zu entwickeln.
Zu diesen Technologien gehören die groß angelegten neuromorphen Maschinen SpiNNaker und BrainScaleS. SpiNNaker läuft in Echtzeit auf digitalen Multi-Core-Chips mit einem paketbasierten Netzwerk zur Optimierung des Spike-Austauschs. BrainScaleS ist eine beschleunigte Maschine, die analoge elektronische Modelle von Neuronen und Synapsen nachbildet. Es verfügt über ein Wafer-Scale-Chip-System der ersten Generation (genannt BrainScaleS-1) und ein Einzelchip-System der zweiten Generation (genannt BrainScaleS-2).10
In der Technologiebranche gehören zu den neuromorphen Prozessoren Loihi von Intel, NeuronFlow von GrAI Matter Labs und die neuromorphen Chips TrueNorth und der nächsten Generation NorthPole von IBM.
Die meisten neuromorphen Geräte bestehen aus Silizium und verwenden die CMOS-Technologie (Complementary Metal-Oxide Semiconductor, Komplementärer Metalloxid-Halbleiter). Die Forscher untersuchen aber auch neue Materialtypen, wie ferroelektrische und Phasenwechselmaterialien. Nicht-flüchtige elektronische Speicherelemente, so genannte Memristoren (eine Kombination aus „Memory“ und „Resistor“), sind ein weiterer Baustein, um die Zusammenlegung von Speicher und Datenverarbeitung in Spike-Neuronen zu erreichen.
Im Softwarebereich umfasst die Entwicklung von Trainings- und Lernalgorithmen für neuromorphes Computing sowohl maschinelles Lernen als auch nicht-maschinelles Lernen. Zum Beispiel:7
Für das Inferencing können vortrainierte Deep Neural Networks mithilfe von Strategien wie der Normalisierung von Gewichten oder Aktivierung in Spiking Neural Networks umgewandelt werden. Ein Deep Neural Network kann auch so trainiert werden, dass seine Neuronen wie Spike-Neuronen aktiviert werden.
Diese bioinspirierten Algorithmen nutzen Prinzipien der biologischen Evolution wie Mutation, Reproduktion und Selektion. Evolutionäre Algorithmen können verwendet werden, um SNNs zu entwerfen oder zu trainieren, indem ihre Parameter (z. B. Verzögerungen und Schwellenwerte) und ihre Struktur (z. B. die Anzahl der Neuronen und die Art der Verknüpfung über Synapsen) im Laufe der Zeit verändert und optimiert werden.
Spiking Neural Networks eignen sich gut für eine graphische Darstellung, wobei ein SNN die Form eines gerichteten Graphen hat. Wenn einer der Knoten im Diagramm einen Anstieg verursacht, stimmt der Zeitpunkt, zu dem auch andere Knoten seinen Höhepunkt erreichen, damit überein, wie lang der kürzeste Pfad vom Ursprungsknoten ist.
In den Neurowissenschaften bezieht sich Neuroplastizität auf die Fähigkeit des menschlichen Gehirns und Nervensystems, seine neuronalen Bahnen und Synapsen als Reaktion auf eine Verletzung zu verändern. In der neuromorphen Architektur wird die synaptische Plastizität typischerweise durch Spike-Timing-abhängige Plastizität implementiert. Bei diesem Vorgang werden die Gewichte der Synapsen entsprechend den relativen Spike-Zeiten der Neuronen angepasst.
Reservoir-Computing, das auf neural networks basiert, verwendet ein „Reservoir“, um Eingabe in einen höherdimensionalen Rechenraum umzuleiten, wobei ein Auslesemechanismus darauf trainiert ist, die Ausgabe des Reservoirs zu lesen.
Beim neuromorphen Computing werden die Eingabe-Signale in ein Spiking Neural Network eingespeist, das als Reservoir fungiert. Das SNN ist nicht trainiert. Stattdessen verlässt es sich auf die rekurrenten Verbindungen innerhalb des Netzwerks und die synaptischen Verzögerungen, um die Eingaben auf einen höherdimensionalen Berechnungsraum abzubilden.
Neuromorphe Systeme bieten eine Menge rechnerischer Möglichkeiten. Hier einige der potenziellen Vorteile, die diese Art von Computerarchitektur bietet:
Als eine vom Gehirn inspirierte Technologie beinhaltet das neuromorphe Computing auch den Begriff der Plastizität. Neuromorphe Geräte sind für das Lernen in Echtzeit konzipiert und passen sich kontinuierlich an sich entwickelnde Stimuli in Form von Eingaben und Parametern an. Das bedeutet, dass sie sich durch die Lösung neuartiger Probleme auszeichnen könnten.
Wie bereits erwähnt, sind neuromorphe Systeme ereignisbasiert, d. h. Neuronen und Synapsen verarbeiten die Verarbeitung als Reaktion auf andere Neuronen, die ihren Wert erhöhen. Als Ergebnis verbraucht nur das Segment, das Spitzenlasten verursacht, Power, während der Rest des Netzwerks inaktiv bleibt. Dies führt zu einem effizienteren Energieverbrauch.
Die meisten modernen Computer, die auch als von-Neumann-Computer bekannt sind, verfügen über getrennte zentrale Verarbeitungseinheiten und Speichereinheiten, und die Übertragung von Daten zwischen diesen Einheiten kann einen Engpass verursachen, der sich auf die Geschwindigkeit auswirkt. Neuromorphe Computersysteme hingegen speichern und verarbeiten Daten in einzelnen Neuronen, was im Vergleich zur Von-Neumann-Architektur zu geringerer Latenz und schnelleren Berechnungen führt.
Aufgrund der asynchronen Natur eines SNN können einzelne Neuronen gleichzeitig verschiedene Vorgänge ausführen. Theoretisch können neuromorphe Geräte also so viele Aufgaben ausführen, wie es Neuronen zu einem bestimmten Zeitpunkt gibt. Neuromorphe Architekturen verfügen daher über immense Parallelverarbeitungsfähigkeiten, die es ihnen ermöglichen, Funktionen schnell auszuführen.
Neuromorphes Computing ist noch ein junges Gebiet. Und wie jede Technologie in ihrem Anfangsstadium stehen auch neuromorphe Systeme vor einigen Herausforderungen:
Die Umwandlung von tiefen Neural Networks in Spiking Neural Neural Networksetworks kann zu Ungenauigkeiten führen. Darüber hinaus können die in neuromorpher Hardware verwendeten Memristoren Zyklus-zu-Zyklus- und Gerätevariationen aufweisen, die sich auf die Genauigkeit auswirken können, sowie Grenzwerte für synaptische Gewichtungen, die die Präzision verringern können.7
Da neuromorphe Technologie noch sehr jung ist, mangelt es ihr an Standards für Architektur, Hardware und Software. Neuromorphe Systeme verfügen auch nicht über klar definierte und etablierte Benchmarks, Beispieldatensätze, Testaufgaben und Metriken, sodass es schwierig ist, die Leistung zu bewerten und die Effektivität aufzuzeigen.
Die meisten algorithmischen Ansätze für neuromorphes Rechnen verwenden immer noch Software, die für von-Neumann-Hardware entwickelt wurde, was die Ergebnisse auf das beschränken kann, was die von-Neumann-Architektur erreichen kann. APIs (Anwendungsprogrammierschnittstellen), Kodierungsmodelle und Programmiersprachen für neuromorphe Systeme müssen jedoch erst noch entwickelt oder einer breiteren Öffentlichkeit zugänglich gemacht werden.
Neuromorphes Computing ist ein komplexes Gebiet, das Disziplinen wie Biologie, Informatik, Elektrotechnik, Mathematik, Neurowissenschaften und Physik umfasst. Dadurch ist es außerhalb des Kontextes eines akademischen Labors, das auf neuromorphe Forschung spezialisiert ist, schwer zu verstehen.
Gegenwärtig gibt es nur wenige reale Anwendungen für neuromorphe Systeme, aber das Berechnungsparadigma kann möglicherweise in diesen Anwendungsfällen eingesetzt werden:
Aufgrund seiner hohen Leistung und der um ein Vielfaches höheren Energieeffizienz kann das neuromorphe Computing dazu beitragen, die Navigationsfähigkeiten eines autonomen Fahrzeugs zu verbessern. So sind schnellere Kurskorrekturen und eine bessere Kollisionsvermeidung möglich, während gleichzeitig der Energieverbrauch gesenkt wird.
Neuromorphe Systeme können dabei helfen, ungewöhnliche Muster oder Aktivitäten zu erkennen, die auf Cyberangriffe oder Sicherheitsverletzungen hinweisen könnten. Und diese Bedrohungen können dank der geringen Latenz und der schnellen Berechnung neuromorpher Geräte schnell abgewehrt werden.
Aufgrund der Eigenschaften der neuromorphen Architektur ist sie für Edge-KI geeignet. Sein niedriger Stromverbrauch kann bei der kurzen Akkulaufzeit von Geräten wie Smartphones und Wearables helfen, während seine Anpassungsfähigkeit und sein ereignisgesteuerter Charakter zu den Informationsverarbeitungsmethoden von Fernsensoren, Drohnen und anderen Geräten des Internet der Dinge (IoT) passen.
Aufgrund seiner umfangreichen Funktionen zur parallelen Verarbeitung kann neuromorphes Computing in Anwendungen des maschinellen Lernens zur Erkennung von Mustern in natürlicher Sprache und Sprache, zur Analyse medizinischer Bilder und zur Verarbeitung von Bildsignalen aus fMRI-Gehirnscans und Elektroenzephalogramm (EEG)-Tests, die die elektrische Aktivität im Gehirn messen, eingesetzt werden.
Als anpassbare Technologie kann das neuromorphe Computing dazu eingesetzt werden, die Echtzeit-Lern- und Entscheidungskompetenz eines Roboters zu verbessern, sodass dieser Objekte besser erkennt, sich in komplexen Fabrikanlagen zurechtfindet und schneller am Fließband arbeiten kann.
Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.
Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.
Erfahren Sie mehr über grundlegende Konzepte und bauen Sie Ihre Fähigkeiten mit praktischen Übungen, Kursen, angeleiteten Projekten, Tests und mehr aus.
Erfahren Sie, wie Sie generative KI und maschinelles Lernen sicher in Ihr Unternehmen integrieren können.
Möchten Sie eine bessere Rendite für Ihre KI-Investitionen erzielen? Erfahren Sie, wie die Skalierung generativer KI in Schlüsselbereichen Veränderungen vorantreibt, indem Sie Ihre besten Köpfe dabei unterstützen, innovative neue Lösungen zu entwickeln und bereitzustellen.
Erfahren Sie, wie Sie das für Ihren Anwendungsfall am besten geeignete KI Foundation Model auswählen.
IBM® Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Entdecken Sie die Optionen zu Sprache, Code, Zeitreihen und Guardrails.
Erfahren Sie mehr über die drei entscheidenden Elemente einer starken KI-Strategie: die Schaffung eines Wettbewerbsvorteils, die Skalierung von KI im gesamten Unternehmen und die Förderung vertrauenswürdiger KI.
Wir haben 2.000 Unternehmen zu ihren KI-Initiativen befragt, um herauszufinden, was funktioniert, was nicht und wie Sie vorankommen können.
1 Carver Mead erhält den Lifetime Contribution Award für Neuromorphic Engineering, Caltech, 7. Mai 2024.
2 Neuromorphic Quantencomputing, Quromorphic, abgerufen am 21. Juni 2024.
3 30 Emerging Technologies That Will Guide Your Business Decisions, Gartner, 12. Februar 2024.
4 The new Essential Eight technologies: what you need to know, PwC, 15. November 2023.
5 What is a neuron?, Queensland Brain Institute, Zugriff: 21. Juni 2024.
6 Action potentials and synapses, Queensland Brain Institute, Zugriff: 21. Juni 2024.
7 Opportunities for neuromorphic computing algorithms and applications, Nature, 31. Januar 2022.
8 Neurogrid: A Mixed-Analog-Digital Multichip System for Large-Scale Neural Simulations, IEEE, 24. April 2014.
9 IMEC demonstrates self-learning neuromorphic chip that composes music, IMEC, 16. Mai 2017.
10 Neuromorphic computing, Human Brain Project, Zugriff: 21. Juni 2024.