Was ist künstliche allgemeine Intelligenz (AGI)?

Umriss des menschlichen Gehirns mit verschiedenen Formen und Farben

Autoren

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

Was ist künstliche allgemeine Intelligenz (AGI)?

Künstliche allgemeine Intelligenz (AGI) ist eine hypothetische Phase in der Entwicklung von maschinellem Lernen (ML), in der ein System der künstlichen Intelligenz (KI) die kognitiven Fähigkeiten von Menschen bei jeder Aufgabe erreichen oder übertreffen kann. Es verkörpert das grundlegende, abstrakte Ziel der KI-Entwicklung: die künstliche Replikation menschlicher Intelligenz in einer Maschine oder Software.

AGI wird seit den Anfängen der KI-Forschung aktiv erkundet. Dennoch besteht in der akademischen Gemeinschaft kein Konsens darüber, was genau als AGI gelten würde und wie man dies am besten erreicht. Obwohl das übergeordnete Ziel einer menschenähnlichen Intelligenz recht einfach ist, sind die Details nuanciert und subjektiv. Die Bemühungen um AGI umfassen daher sowohl die Entwicklung eines Frameworks zum Verständnis der Intelligenz in Maschinen als auch die Entwicklung von Modellen, die dieses Framework erfüllen können.

Die Herausforderung ist sowohl philosophischer als auch technologischer Natur. Philosophisch gesehen erfordert eine formale Definition von AGI sowohl eine formale Definition von „Intelligenz“ als auch eine allgemeine Einigung darüber, wie diese Intelligenz in KI manifestiert werden könnte. Aus technologischer Sicht erfordert AGI die Erstellung von KI-Modellen mit einem noch nie dagewesenen Grad an Komplexität und Vielseitigkeit, Metriken und Tests, um die Kognition des Modells und die für die Aufrechterhaltung der Leistung erforderliche Rechenleistung zuverlässig zu verifizieren.

Von der schmalen KI zur allgemeinen KI

Der Begriff der „allgemeinen“ Intelligenz oder der allgemeinen KI lässt sich am besten im Gegensatz zur schmalen KI verstehen : ein Begriff, der praktisch die gesamte aktuelle KI beschreibt, deren „Intelligenz“ nur in spezialisierten Bereichen demonstriert wird.

Das Dartmouth Summer Research Project on Artificial Intelligence von 1956, an dem Mathematiker und Wissenschaftler von Institutionen wie Dartmouth, IBM, Harvard und Bell Labs teilnahmen, gilt als Ursprung des Begriffs „künstliche Intelligenz“. Wie im Projektentwurf beschrieben, „sollte die Studie auf der Vermutung aufbauen, dass jeder Aspekt des Lernens oder jede andere Funktion der Intelligenz so genau beschrieben werden kann, dass eine Maschine zur Simulation hergestellt werden kann.“

In diesem aufstrebenden Gebiet der „KI“ sollte eine Roadmap für Maschinen entwickelt werden, die selbständig denken können. Doch in den folgenden Jahrzehnten erwies sich der Fortschritt hin zu menschenähnlicher Intelligenz bei Maschinen als schwer zu erreichen.

Viel größere Fortschritte wurden bei der Suche nach Rechenmaschinen erzielt, die spezifische Aufgaben ausführen, die typischerweise große Intelligenz des Menschen erfordern, wie z. B. Schachspielen, Gesundheitsdiagnosen, Forecasting oder Autofahren. Aber diese Modelle – zum Beispiel jene, die selbstfahrende Autos antreiben – zeigen Intelligenz nur innerhalb ihrer spezifischen Bereiche.

Im Jahr 2007 popularisierte der KI-Forscher Ben Goertzel auf Anregung des DeepMind-Mitbegründers Shane Legg den Begriff „künstliche allgemeine Intelligenz“ (AGI) in einem einflussreichen Buch gleichen Namens. Im Gegensatz zu dem, was er als „schmale KI“ bezeichnete, wäre eine künstliche allgemeine Intelligenz eine neue Art von KI, die unter anderem „die Fähigkeit besitzt, allgemeine Probleme auf eine nicht auf ein bestimmtes Gebiet beschränkte Weise zu lösen, so wie es ein Mensch kann“.

AGI vs. starke KI vs. künstliche Superintelligenz

AGI ist eng mit anderen Konzepten des maschinellen Lernens verbunden und wird oft mit starker KI oder künstlicher Superintelligenz verwechselt oder sogar synonym verwendet. Obwohl sich diese Konzepte ziemlich überschneiden, sind sie alle für sich genommen ein eigenes Konzept von KI.

AGI vs. starke KI

Der Begriff „starke KI“, der in den Werken des Philosophen John Searle eine wichtige Rolle spielt, bezeichnet ein KI-System, das Bewusstsein aufweist, und dient hauptsächlich als Gegenpol zur schwachen KI. Während starke KI im Allgemeinen mit AGI vergleichbar ist (und schwache KI im Allgemeinen mit schmaler KI vergleichbar ist), sind sie nicht einfach Synonyme voneinander.

Im Wesentlichen ist schwache KI lediglich ein Werkzeug, das von einem bewussten Verstand – also einem Menschen – benutzt wird. Starke KI hingegen ist selbst ein bewusster Verstand. Obwohl in der Regel impliziert wird, dass dieses Bewusstsein eine entsprechende Intelligenz mit sich bringt, die der von Menschen gleich oder überlegen ist, geht es bei starker KI nicht explizit um die relative Leistung bei verschiedenen Aufgaben. Die beiden Konzepte werden oft miteinander verschmolzen, weil das Bewusstsein entweder als Voraussetzung oder als Folge von „allgemeiner Intelligenz“ angesehen wird.

Trotz ihrer Ähnlichkeiten beschreiben AGI und starke KI letztlich eher komplementäre Konzepte als identische Konzepte.

AGI vs. künstliche Superintelligenz

Künstliche Superintelligenz ist, wie der Name schon sagt, ein KI-System, dessen Funktionen die von Menschen bei Weitem übertreffen.

Es ist wichtig zu beachten, dass dieses Konzept nicht notwendigerweise „allgemeine“ Superintelligenz voraussetzt. Von diesen drei analogen KI-Stufen – AGI, starke KI und künstliche Superintelligenz – ist die künstliche Superintelligenz die einzige, die wohl bereits erreicht wurde. Anstatt ausschließlich der Science-Fiction vorbehalten zu sein, gibt es bereits schmale KI-Modelle, die etwas demonstrieren, das man durchaus als Superintelligenz bezeichnen könnte, da sie die Leistung jedes Menschen bei ihrer jeweiligen Aufgabe übertreffen.

Zum Beispiel,

  • AlphaFold übertrifft alle menschlichen Wissenschaftler bei der Vorhersage der 3D-Struktur eines Proteins aus einer API-Sequenz.
  • Deep Blue von IBM besiegte 1997 den Weltmeister Garry Kasparov im Schach.
  • IBM Watson® besiegte die Jeopardy!-Champions Ken Jennings und Brad Rutter im Jahr 2013.
  • AlphaGo (und sein Nachfolger AlphaZero) gilt als der weltbeste Go -Spieler.

Obwohl diese Modelle einen Durchbruch in der künstlichen Superintelligenz darstellen könnten, haben sie keine künstliche „allgemeine“ Intelligenz erreicht, da solche KI-Systeme nicht autonom neue Aufgaben erlernen oder ihre Problemlösungsfähigkeiten über ihren eng definierten Umfang hinaus erweitern können.

Darüber hinaus ist es erwähnenswert, dass Superintelligenz keine Voraussetzung für AGI ist. Theoretisch würde ein KI-System, das ein Bewusstsein und ein Intelligenzniveau aufweist, das mit dem eines durchschnittlichen, unauffälligen Menschen vergleichbar ist, sowohl AGI als auch starke KI repräsentieren – aber nicht künstliche Superintelligenz.

Bestehende Definitionen von künstlicher allgemeiner Intelligenz

Unter Experten besteht kein Konsens darüber, was genau als AGI gelten sollte, obwohl im Laufe der Geschichte der Informatik viele Definitionen vorgeschlagen wurden. Diese Definitionen konzentrieren sich in der Regel auf den abstrakten Begriff der maschinellen Intelligenz und nicht auf die spezifischen Algorithmen oder Modelle des maschinellen Lernens, die zur Erreichung dieser Ziele verwendet werden sollten.

Im Jahr 2023 veröffentlichte Google Deepmind eine Studie, in der die bestehende akademische Literatur untersucht wurde und mehrere Kategorien von Rahmenwerken zur Definition künstlicher allgemeiner Intelligenz identifiziert wurden:

  • Der Turing-Test: Maschinen, die sich überzeugend wie Menschen verhalten können
  • Starke KI: Systeme mit Bewusstsein
  • Analogien zum menschlichen Gehirn
  • Leistung auf menschlichem Niveau bei kognitiven Aufgaben
  • Fähigkeit, neue Aufgaben zu erlernen
  • Wirtschaftlich wertvolle Arbeit
  • Flexible und allgemeine Funktionen
  • “Artificial Capable Intelligence” (ACI)

Der Turing-Test

Alan Turing, eine wegweisende Persönlichkeit in der Geschichte der theoretischen Informatik, veröffentlichte 1950 in seiner Arbeit „Computer Machinery and Intelligence“ eine der frühesten und einflussreichsten Definitionen von maschineller Intelligenz. Der Kern seiner Argumentation war, dass Intelligenz durch Verhalten und nicht durch mystische philosophische Eigenschaften definiert werden kann. Turing erkannte die Schwierigkeit, feste Definitionen von Konzepten wie Maschinen und Denken festzulegen, und schlug einen einfachen Weg vor, das Problem zu umgehen, der auf einem Partyspiel namens „Imitation Game“ basierte.

Der „Turing-Test“ ist einfach: Ein menschlicher Beobachter muss Textproben lesen und feststellen, ob sie von einem Menschen oder von einer Maschine generiert wurden. Turing schlug vor, dass, wenn ein Mensch nicht zwischen der Ausgabe des Programms und der Ausgabe eines anderen Menschen unterscheiden kann, man sagen kann, dass das Programm menschenähnliche Intelligenz zeigt.

Kritik am Turing-Test
Trotz seines monumentalen Einflusses betrachten Informatiker den Turing-Test heute nicht als adäquates Maß für AGI. Anstatt die Fähigkeit zu denken zu demonstrieren, zeigt der Test oft einfach nur, wie leicht Menschen zu täuschen sind.

So entwickelte Joseph Weizelbaum 1966 ein Chatbot-Programm namens ELIZA, das einfache Regeln anwendet, um die menschliche Sprache der Eingaben eines Benutzers in eine Antwort des Chatbots umzuwandeln. Das erste Programm, das er mit diesem Chatbot entwarf, erhielt den Namen DOCTOR. Es sollte einen Roger-basierten Psychotherapeuten imitieren, indem es entweder generisch antwortet oder die Benutzereingabe in Form einer Frage umformuliert:

Mensch: Mein Freund hat mich hierher geschickt.
ELIZA: Dein Freund hat dich hierher geschickt?
Mensch: Er sagt, dass ich die meiste Zeit deprimiert bin.
ELIZA: Es tut mir leid, dass du deprimiert bist.
Mensch: Das stimmt. Ich bin unglücklich.
ELIZA: Glaubst du, dass der Besuch hier dir helfen wird, nicht unglücklich zu sein?
 

Wie Weizelbaum in seinem 1976 erschienenen Werk Computer Power and Human Reason erklärte, war er „erstaunt darüber, wie schnell und sehr intensiv sich Menschen, die mit DOCTOR interagierten, emotional mit dem Computer identifizierten und wie unmissverständlich sie ihn vermenschlichten.“ Er bemerkte, dass sogar seine Sekretärin, die ihn monatelang bei der Arbeit an dem Programm beobachtet hatte und offensichtlich dessen einfache Methodik kannte, ihn bat, den Raum zu verlassen, um ungestört zu sein, als sie begann, sich mit dem Programm zu unterhalten.1 Dieses Phänomen ist als der ELIZA-Effekt bekannt geworden.

Starke KI: Systeme, die Bewusstsein besitzen

Ein anderer Definitionsvorschlag legt die Messlatte für AGI höher: ein KI-System, das ein Bewusstsein besitzt. Wie Searles es ausführt: „Laut der Theorie der starken KI ist der Computer nicht bloß ein Werkzeug zur Erforschung des Geistes; vielmehr ist ein entsprechend programmierter Computer tatsächlich ein Geist.“2

Searles verfasste 1980 eine bekannte philosophische Widerlegung der Fähigkeit des Turing-Tests, eine starke KI nachzuweisen. Er beschreibt einen Englisch sprechenden Mann, der absolut kein Chinesisch versteht und in einem Raum voller Bücher mit chinesischen Symbolen und Anweisungen (auf Englisch) zur Manipulation der Symbole eingesperrt ist. Er argumentiert, dass der englische Sprecher jemanden in einem anderen Raum dazu täuschen könnte, dass er Chinesisch spricht, indem er einfach den Anweisungen zur Manipulation von Zahlen und Symbolen folgt, obwohl er weder die Botschaften der anderen Person noch seine eigenen Antworten versteht.3

Die jahrzehntelange Debatte um das chinesische Raumargument, die in diesem Artikel in der Stanford Encyclopedia of Philosophy zusammengefasst ist, zeigt, dass es keinen wissenschaftlichen Konsens über eine Definition von „Verstehen“ gibt und ob ein Computerprogramm darüber verfügen kann. Diese Meinungsverschiedenheit sowie die Möglichkeit, dass Bewusstsein möglicherweise nicht einmal eine Voraussetzung für eine menschenähnliche Leistung ist, macht starke KI allein zu einem unpraktischen Framework für die Definition von AGI.

Analogien zum menschlichen Gehirn

Ein intuitiver Ansatz für AGI, der darauf abzielt, die Art von Intelligenz nachzubilden, die (unseres Wissens nach) bisher nur vom menschlichen Gehirn erreicht wurde, besteht darin, das menschliche Gehirn selbst nachzubilden.4 Diese Intuition führte zu den ursprünglichen künstlichen neuronalen Netzen, die wiederum die Deep Learning-Modelle hervorgebracht haben, die derzeit den Stand der Technik in fast allen Teilbereichen der KI darstellen.

Der Erfolg von neuronalen Deep-Learning-Netzen, insbesondere der großen Sprachmodelle (LLMs) und multimodalen Modelle an der Spitze der generativen KI, demonstriert den Vorteil, sich von der menschlichen Gehirnstruktur durch selbstorganisierende Netzwerke künstlicher Neuronen inspirieren zu lassen. Allerdings verwenden viele der bisher leistungsfähigsten Deep-Learning-Modelle transformer-basierte Architekturen, die ihrerseits keine gehirnähnlichen Strukturen exakt nachbilden. Dies deutet darauf hin, dass die explizite Nachahmung des menschlichen Gehirns nicht per se notwendig ist, um AGI zu erreichen.

Leistung auf menschlichem Niveau bei kognitiven Aufgaben

Ein ganzheitlicherer Ansatz besteht darin, AGI einfach als KI-System zu definieren, das alle kognitiven Aufgaben erledigen kann, die auch Menschen erledigen können. Diese Definition ist zwar hilfreich flexibel und intuitiv, aber sie ist nicht eindeutig: Welche Aufgaben? Welche Personen? Diese Mehrdeutigkeit schränkt die praktische Verwendung als formales Framework für AGI ein.

Der bemerkenswerteste Beitrag dieses Frameworks besteht darin, dass es den Fokus von AGI auf nicht-physische Aufgaben beschränkt. Dabei werden Fähigkeiten wie der Gebrauch von Werkzeugen, die Fortbewegung oder das Manipulieren von Gegenständen außer Acht gelassen, die oft als Beweis für „physische Intelligenz“ gelten5. Damit entfallen weitere Fortschritte in der Robotertechnik als Voraussetzung für die Entwicklung von AGI.

Fähigkeit, neue Aufgaben zu erlernen

Ein weiterer intuitiver Ansatz in Bezug auf AGI und Intelligenz an sich besteht darin, die Fähigkeit zu lernen zu betonen – insbesondere die Fähigkeit, ein so breites Spektrum an Aufgaben und Konzepten zu lernen, wie es Menschen können. Dies erinnert an Turing in „Computing Machinery and Intelligence“, in dem er vermutet, dass es klüger sei, eine kindliche KI zu programmieren und sie einer Bildungsphase zu unterziehen, statt ein Computersystem direkt als erwachsene Intelligenz zu programmieren.6

Dieser Ansatz steht im Widerspruch zur schmalen KI, die Modelle explizit schult, um eine bestimmte Aufgabe zu erfüllen. Selbst ein LLM wie GPT-4, das vordergründig die Fähigkeit zum Few-Shot-Learning oder sogar Zero-Shot-Learning bei „neuen“ Aufgaben demonstriert, ist auf Funktionen neben seiner Hauptaufgabe beschränkt: der autoregressiven Vorhersage des nächsten Wortes in einer Sequenz .

Obwohl hochmoderne multimodale KI-Modelle immer vielfältigere Aufgaben ausführen können, von der Verarbeitung natürlicher Sprache (NLP) über Computer Vision bis hin zur Spracherkennung, sind sie immer noch auf eine begrenzte Liste von Kernkompetenzen beschränkt, die in ihren Trainingsdatensätzen dargestellt werden. Sie können zum Beispiel nicht lernen, ein Auto zu fahren. Eine echte AGI wäre in der Lage, in Echtzeit aus neuen Erfahrungen zu lernen – eine Leistung, die für menschliche Kinder und sogar viele Tiere nicht bemerkenswert ist.

Der KI-Forscher Pei Wang hat eine in diesem Zusammenhang sinnvolle Definition von maschineller Intelligenz: „die Fähigkeit eines informationsverarbeitenden Systems, sich mit unzureichendem Wissen und unzureichenden Ressourcen an seine Umgebung anzupassen.“7

Wirtschaftlich wertvolle Arbeit

Open AI, dessen GPT-3-Modell oft dafür verantwortlich ist, dass es mit dem Start von ChatGPT die aktuelle Ära der generativen KI eingeleitet hat, definiert AGI in seiner Satzung als „hochautonome Systeme, die Menschen bei der wirtschaftlich wertvollsten Arbeit übertreffen.“8

Wie im DeepMind-Bericht festgestellt, lässt diese Definition Elemente der menschlichen Intelligenz außer Acht, deren wirtschaftlicher Wert schwer zu definieren ist, wie z. B. künstliche Kreativität oder emotionale Intelligenz. Bestenfalls können diese Aspekte der Intelligenz einen wirtschaftlichen Wert auf Umwegen realisieren, z. B. bei der Kreativität, die profitable Filme produziert, oder bei der emotionalen Intelligenz, die Maschinen antreibt, die Psychotherapie durchführen.

Der Fokus auf den wirtschaftlichen Wert impliziert auch, dass Funktionen, die AGI umfassen, nur dann gezählt werden können, wenn sie auch in der Praxis zur Bereitstellung kommen. Wenn ein KI-System bei einer bestimmten Aufgabe mit dem Menschen mithalten kann, es aber aus rechtlichen, ethischen oder sozialen Gründen praktisch unmöglich ist, diese Aufgabe jemals tatsächlich zu erfüllen, kann man dann sagen, dass es den Menschen „übertrifft“?

Der DeepMind-Bericht stellt auch fest, dass OpenAI seine Robotertechnik-Abteilung im Jahr 2021 geschlossen hat, was darauf hindeutet, dass die Replikation von physischer Arbeit – und entsprechende Auswirkungen auf die Rolle der „physischen Intelligenz“ in AGI – nicht Teil dieser Interpretation des wirtschaftlichen Wertes ist.

Flexible und allgemeine Funktionen

Gary Marcus, Psychologe, Kognitionswissenschaftler und KI-Forscher, definierte AGI als „eine Abkürzung für jede Intelligenz ... die flexibel und allgemein ist, deren Einfallsreichtum und Zuverlässigkeit mit der menschlichen Intelligenz vergleichbar sind (oder diese übertreffen).9 Marcus schlug eine Reihe von Benchmark-Aufgaben vor, die diese Anpassungsfähigkeit und allgemeine Kompetenz demonstrieren sollten, ähnlich einer spezifischen und praktischen Umsetzung des Frameworks für „Lernaufgaben“.

Diese Quantifizierung von AGI erinnert an ein Gedankenexperiment des Apple-Mitbegründers Steve Wozniak, der fragte: „Könnte ein Computer eine Tasse Kaffee machen?“ Wozniak merkt an, dass diese scheinbar einfache Aufgabe in Wirklichkeit ziemlich komplex ist: Man muss in der Lage sein, zu gehen, zu wissen, was eine Küche ist, zu wissen, wie eine Kaffeemaschine oder ein Kaffee aussehen könnte, und mit Schubladen und Schränken zu interagieren. Kurz gesagt, ein Mensch muss auf seine gesamte Lebenserfahrung zurückgreifen, nur um eine Tasse Kaffee zuzubereiten.10

Konkret schlug Marcus eine Reihe von 5 Benchmark-Aufgaben vor, die AGI demonstrieren würden, wenn sie von einem einzelnen KI-System ausgeführt werden.11

  • Einen Film ansehen und die Figuren, ihre Konflikte und ihre Motivationen verstehen.
  • Einen Roman lesen und zuverlässig Fragen beantworten, mit Erkenntnissen über den Originaltext hinaus, über Handlung, Figuren, Konflikte und Motivationen.
  • Als kompetenter Koch in einer beliebigen Küche arbeiten (ähnlich dem Kaffee-Benchmark von Wozniak).
  • Zuverlässig 10.000 Zeilen fehlerfreien Codes aus Anweisungen in natürlicher Sprache erstellen, ohne Code aus vorhandenen Bibliotheken zusammenzufügen.
  • Mathematische Beweise in natürlicher Sprache in symbolische Form konvertieren.

Während dieses aufgabenorientierte Framework eine dringend benötigte Objektivität in die Validierung von AGI einbringt, ist es schwierig, sich darüber zu einigen, ob diese spezifischen Aufgaben die gesamte menschliche Intelligenz abdecken. Die dritte Aufgabe, die Arbeit als Koch, impliziert, dass Robotertechnik – und damit physische Intelligenz – ein notwendiger Bestandteil von AGI wäre.

„Artificial Capable Intelligence“

Im Jahr 2023 schlug der CEO von Microsoft AI und DeepMind-Mitbegründer Mustafa Suleyman den Begriff „Artificial Capable Intelligence“ (ACI) vor, um KI-Systeme zu beschreiben, die komplexe, offene, mehrstufige Aufgaben in der realen Welt erfüllen können. Genauer gesagt schlug er einen „modernen Turing-Test“ vor, bei dem einer KI ein Startkapital von 100.000 US-Dollar zur Verfügung gestellt und sie die Aufgabe erhalten würde, dieses auf 1 Million US-Dollar zu vermehren.12 Im Großen und Ganzen verbindet dies OpenAIs Vorstellung von ökonomischem Wert mit Marcus’ Fokus auf Flexibilität und allgemeine Intelligenz.

Auch wenn diese Benchmark einen echten Einfallsreichtum und interdisziplinäre Kompetenz beweist, ist diese Definition von Intelligenz als spezifischer Art von Ausgabe in praktischer Hinsicht untragbar eng. Darüber hinaus birgt die ausschließliche Fokussierung auf den Gewinn erhebliche Risiken bei der Ausrichtung. 13

Sind LLMs bereits AGI?

Einige Forscher, wie Blase Agüera y Arcas und Peter Norvig, haben argumentiert, dass fortgeschrittene LLMs wie Llama von Meta, GPT von Open AI und Claude von Anthropic bereits AGI erreicht haben. Sie gehen davon aus, dass Allgemeingültigkeit das Schlüsselelement von AGI ist und dass die heutigen Modelle bereits eine breite Palette von Themen diskutieren, eine breite Palette von Aufgaben ausführen und eine Vielzahl multimodaler Eingaben verarbeiten können. „Allgemeine Intelligenz muss als multidimensionale Scorecard betrachtet werden“, argumentieren sie. „Kein einziger Ja- oder Nein-Vorschlag.“14

Es gibt viele Kritiker zu dieser Position. Die Autoren des DeepMind-Papiers argumentieren, dass Allgemeingültigkeit allein nicht als AGI qualifiziert ist: Sie muss mit einem gewissen Maß an Leistungsfähigkeit einhergehen. Wenn ein LLM zum Beispiel Code schreiben kann, dieser Code aber nicht zuverlässig ist, dann ist diese Allgemeinheit „noch nicht ausreichend leistungsfähig“.

Yann LeCun, leitender KI-Wissenschaftler von Meta, hat festgestellt, dass es LLMs an AGI mangelt, weil sie keinen gesunden Menschenverstand haben: Sie können nicht denken, bevor sie handeln, sie können keine Aktionen in der realen Welt ausführen oder durch verkörperte Erfahrung lernen und es mangelt ihnen an persistenten Gedächtnissen und Kapazitäten für hierarchische Planung.15 Auf einer grundlegenderen Ebene haben LeCun und Jacob Browning argumentiert, dass „ein System, das allein auf Sprache trainiert wurde, niemals annähernd an die menschliche Intelligenz herankommen wird, selbst wenn es von jetzt an bis zum Hitzetod des Universums trainiert wurde.“16

Technologische Ansätze für AGI

Goertzel und Pennachin stellen fest, dass es mindestens drei grundlegende technologische Ansätze für AGI-Systeme in Bezug auf Algorithmen und Modellarchitekturen gibt.

  • Gezielte Nachbildung des menschlichen Gehirns in Software: Da das menschliche Gehirn das einzige uns bekannte System ist, das zu allgemeiner Intelligenz fähig ist, würde eine nahezu perfekte Nachbildung desselben theoretisch eine ähnliche Intelligenz hervorbringen. Während künstliche neuronale Netze oberflächlich die grundlegenden Mechanismen des Gehirns replizieren, ist die tatsächliche Funktionsweise des Gehirns weitaus vielfältiger und anspruchsvoller als aktuelle Deep Learning-Modelle. Abgesehen von der technologischen Herausforderung, das Gehirn tatsächlich nachzubilden, erfordert dieser Ansatz auch ein tieferes Verständnis der Funktionsweise des Gehirns, als wir es derzeit haben.17

  • Ein neuartiges Modellarchitektur, das sich sowohl vom Gehirn als auch von schmalen KI-Architekturen unterscheidet: Dieser Ansatz geht davon aus, dass das Gehirn nicht die einzige Struktur ist, die allgemeine Intelligenz hervorbringt, und dass die bestehenden Ansätze der schmalen KI nicht über ihre technologischen oder konzeptionellen Grenzen hinausgehen können. AGI würde also eine neue Art von künstlicher Intelligenz erfordern. LeCun hat beispielsweise vorgeschlagen, autoregressive und andere generative, probabilistische KI-Modellarchitekturen zugunsten von „zielgerichteten KI-Systemen“zu vermeiden, deren „Weltmodelle“ mehr wie Tiere und Kinder lernen.

  • Ein integrativer Ansatz, der schmale KI-Algorithmen synthetisiert: Dieser Ansatz steht im Mittelpunkt der meisten aktuellen Initiativen in der realen Welt zur Erreichung von AGI. Dabei wird versucht, die isolierten Fortschritte, die bei schmalen KI-Werkzeugen wie LLMs, Bildmodellen und verstärkenden Lernagenten erzielt wurden, miteinander zu verknüpfen. Aktuelle multimodale Modelle könnten als Zwischenschritte auf diesem Weg betrachtet werden. Diese integrativen Ansätze verwenden typischerweise ein zentrales „Agentenmodell“ – oft ein LLM –, um einen Entscheidungsfindungsprozess zu steuern und die Delegation von Teilaufgaben an spezialisierte Modelle zu automatisieren .

Wann wird AGI eintreffen?

Vorhersagen über die Zukunft der KI sind immer mit einem hohen Maß an Unsicherheit verbunden, aber fast alle Experten sind sich einig, dass dies bis zum Ende des Jahrhunderts möglich sein wird, und einige gehen davon aus, dass dies noch viel früher geschehen könnte.

Im Jahr 2023 verfasste Max Roser von Our World in Data eine Zusammenfassung der AGI-Prognosen, um zusammenzufassen, wie sich die Expertenmeinung zu AGI-Forecasting in den letzten Jahren weiterentwickelt hat. Bei jeder Umfrage wurden die Befragten – Forscher für KI und maschinelles Lernen – gefragt, wie lange es ihrer Meinung nach dauern würde, eine 50-prozentige Chance auf menschliche Intelligenz zu erreichen. Die bedeutendste Veränderung von 2018–2022 ist die zunehmende Gewissheit der Befragten, dass AGI innerhalb von 100 Jahren Realität werden würde.

Es ist jedoch erwähnenswert, dass diese drei Studien jeweils vor der Einführung von ChatGPT und dem Beginn der modernen Ära der generativen KI durchgeführt wurden. Das zunehmende Tempo der Fortschritte in der Technologie seit Ende 2022, insbesondere bei LLMs und multimodaler KI, hat zu einem deutlich veränderten Prognosenumfeld geführt.

In einer größeren Folgeumfrage von Grace et al. unter 2.778 KI-Forschern, die im Oktober 2023 durchgeführt und im Januar 2024 veröffentlicht wurde, schätzten die Befragten eine Wahrscheinlichkeit von 50 Prozent, dass bis 2047 „ungestützte Maschinen den Menschen bei jeder möglichen Aufgabe übertreffen“ würden 13 Jahre früher als Experten es in einer ähnlichen Studie nur ein Jahr zuvor prognostiziert hatten.

Doch wie Roser feststellt, hat die Forschung gezeigt, dass Experten in vielen Bereichen nicht unbedingt zuverlässig sind, wenn sie die Zukunft ihres eigenen Fachgebiets vorhersagen. Er nennt das Beispiel der Gebrüder Wright, die allgemein als Erfinder des ersten erfolgreichen Flugzeugs der Welt gelten. In einer Dankesrede am 5. November 1908 im Aéro Club de France in Paris soll Wilbur Wright erklärt haben: „Ich gestehe, dass ich 1901 zu meinem Bruder Orville gesagt habe, dass der Mensch in den nächsten 50 Jahren nicht fliegen würde. Zwei Jahre später führten wir bereits Flüge durch.“18

Weitere Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Live-Demo buchen
Fußnoten

1 Computer Power and Human Reason: from Judgment to Calculation (Seite 6), Joseph Weizenbaum, 1976.
2 „Minds, brains, and programs“, Behavioral and Brain Sciences (archiviert mit OCR von der University of Southampton), 1980.
3 ibid.
4 „Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?“, Research Directions: Bioelectronics (Online-Veröffentlichung der Cambridge University), 12. Februar 2024.
5 „Physical intelligence as a new paradigm“, Extreme Mechanics Letters, Band 46, Juli 2021.
6 „Computing Machinery and Intelligence“, Mind 49: 433-460 (Online-Veröffentlichung der University of Maryland, Baltimore County), 1950.
7 „On the Working Definition of Intelligence“, ResearchGate, Januar 1999.
8 „Open AI Charter“, OpenAI, archiviert am 1. September 2024.
9 „AGI will not happen in your lifetime. Or will it?“, Gary Marcus (auf Substack), 22. Januar 2023.
10 „Wozniak: Could a Computer Make a Cup of Coffee?“, Fast Company (auf YouTube), 2. März 2010.
11 „Dear Elon Musk, here are five things you might want to consider about AGI“, Gary Marcus (auf Substack), 31. Mai 2022.
12 „Mustafa Suleyman: My new Turing test would see if AI can make $1 million“, MIT Technology Review, 14. Juli 2023.
13 „Alignment of Language Agents“, arXiv, 26. März 2021.
14 „Artificial General Intelligence Is Already Here“, Noema Magazine, 10. Oktober 2023.
15 „Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI“, Lex Fridman Podcast (auf YouTube), 10. Oktober 2023.
16 „AI and The Limits of Language“ , Noema Magazine, 23. August 2023.
17 „Why is the human brain so difficult to understand? We asked 4 neuroscientists.“ Allen Institute, 21. April 2022.
18 „Great Aviation Quotes: Predictions“ , Great Aviation Quotes.