Empfindungsfähige künstliche Intelligenz wird theoretisch als selbstbewusste Maschinen definiert, die in Übereinstimmung mit ihren eigenen Gedanken, Emotionen und Motiven handeln können. Bis heute sind sich Experten einig, dass KI bei weitem nicht komplex genug ist, um empfindungsfähig zu sein.
Seit der Erfindung des Computers haben Wissenschaftler Benchmarks entwickelt (z. B. den Turing-Test) um die „Intelligenz“ von Maschinen zu bewerten. Bald darauf gingen die Debatten über maschinelle Intelligenz in Überlegungen über ihr Bewusstsein oder ihre Empfindungsfähigkeit über.
Obwohl seit Anfang der 2000er Jahre Diskussionen über das Bewusstsein von KI geführt werden, haben die Beliebtheit großer Sprachmodelle, der Zugang der Verbraucher zu generativer KI wie ChatGPT und ein Interview in der Washington Post1 mit dem ehemaligen Google-Ingenieur Blake Lemoine das Interesse an der Frage neu entfacht: Ist KI empfindungsfähig?
Lemoine erklärte gegenüber der Post, dass LaMDA, Googles Generator für künstlich intelligente Chatbots, empfindungsfähig sei. Er anfing, über Rechte und Persönlichkeit zu sprechen, und war sich anscheinend seiner eigenen Bedürfnisse und Gefühle bewusst.
Die Ethikbeauftragten von Google haben diese Behauptungen öffentlich zurückgewiesen. Yann LeCun, Leiter der KI-Forschung bei Meta, sagte der New York Times2, dass diese Systeme nicht leistungsfähig genug seien, um „echte Intelligenz“ zu erreichen. Der aktuelle Konsens unter führenden Experten ist, dass KI nicht empfindungsfähig ist.
Da maschinelle Lernen immer fortschrittlicher wird, drängen Informatiker auf weitere Innovationen bei KI-Tools. Sie hoffen, Geräte zu entwickeln, die ein tieferes Verständnis des menschlichen Verhaltens haben und zu mehr Personalisierung und relevanten Echtzeit-Antworten führen, ohne dass so viel mühsame menschliche Codierung erforderlich ist. Dies hat zu Entwicklungen im Bereich Cognitive Computing geführt, bei dem Systeme auf natürliche Weise mit Menschen interagieren und Probleme durch selbstlernende Algorithmen lösen. Das GPT-Modell von OpenAI und LaMDA von Google sind ein Hinweis darauf, was bei anderen Technologieunternehmen wie Meta, Apple oder Microsoft in Arbeit sein könnte.
Empfindungsvermögen wäre ein weiterer Schritt. Es wird durch die Fähigkeit definiert, subjektive Erfahrungen, Bewusstsein, Erinnerung und Gefühle zu haben. Die Definitionen für Empfindungsvermögen, Kognition und Bewusstsein sind jedoch oft unterschiedlich und werden von Philosophen und Kognitionswissenschaftlern immer noch heftig diskutiert3.
Theoretisch würde eine empfindungsfähige KI die Welt um sich herum wahrnehmen, externe Reize verarbeiten und all dies für die Entscheidungsfindung nutzen und wie Menschen denken und fühlen.
Obwohl KI auf die gleiche Weise lernt wie Menschen und in gewissem Umfang logisch denken kann, ist sie bei Weitem nicht so komplex wie Menschen oder sogar einige Tiergehirne. Es ist noch relativ unbekannt, wie das menschliche Gehirn das Bewusstsein entstehen lässt, aber es geht um mehr als nur die Anzahl der miteinander verbundenen Gehirnzellen. Oftmals wird Empfindungsvermögen mit Intelligenz gleichgesetzt, was ein weiteres Merkmal ist, an dessen Quantifizierung in Maschinen die wissenschaftliche Gemeinschaft noch arbeitet.
Intelligente Maschinen lernen durch Erkundung und können sich an neue Informationen anpassen. Die meisten KI-Programme sind heute Spezialisten und keine Generalisten, eher geradlinig als verkopft. Jedes Programm ist darauf trainiert, eine spezifische Aufgabe oder einen bestimmten Typ von Problem gut zu bewältigen, wie z. B. Schach zu spielen oder einen standardisierten Test zu absolvieren.
In der Informatikforschung spielen KI-Experten mit dem Konzept der „künstlichen allgemeinen Intelligenz“ (AGI), auch bekannt als starke KI, deren Ziel es ist, KI mit einer menschenähnlicheren Intelligenz auszustatten, die nicht aufgabenspezifisch ist. Darüber hinaus gibt es auch den hypothetischen zukünftigen Zustand einer künstlichen Superintelligenz.
Diese Fähigkeiten sollen der KI ein besseres Verständnis für menschliche Befehle und Zusammenhänge vermitteln und so die Verarbeitung von Informationen automatisieren, die es den Maschinen ermöglicht, selbstständig die richtige Funktion abzuleiten, die unter einer bestimmten Bedingung ausgeführt werden soll.
Tools wie der Turing-Test wurden entwickelt, um zu bewerten, wie gut Menschen das Verhalten von Maschinen erkennen können. Es hält ein Programm für intelligent, wenn es einen anderen Menschen täuschen kann, indem es vorgibt, selbst menschlich zu sein.
Aber Intelligenz lässt sich nur schwer klassifizieren. Zum Beispiel hat das Chinesische Zimmer die Mängel des Turing-Tests zur Bestimmung von Intelligenz aufgezeigt. Wichtig ist, dass sich Intelligenz oft auf die Fähigkeit bezieht, Wissen zu erwerben und zu nutzen. Das ist nicht gleichbedeutend mit Empfindungsvermögen. Es gibt keine Belege dafür, dass ein KI-Modell innere Monologe führt oder seine eigene Existenz innerhalb einer größeren Welt wahrnehmen kann, was zwei Eigenschaften von Empfindungsvermögen sind.
Große Sprachmodelle können menschliche Sprache durch Verarbeitung natürlicher Sprache und Natural Language Understanding überzeugend nachbilden.
Einige Technologen argumentieren, dass die der KI zugrunde liegende neuronale Netzwerkarchitektur, wie z. B. LLMs, die Strukturen des menschlichen Gehirns imitiert und die Grundlagen für das Bewusstsein schafft.
Viele Informatiker sind anderer Meinung – ihrer Ansicht nach ist KI nicht empfindungsfähig und hat lediglich gelernt, wie menschliche Sprache funktioniert, indem sie aufgenommene Inhalte von Websites wie Wikipedia, Reddit und Social Media wiedergibt, ohne die Bedeutung hinter dem Gesagten oder den Grund für das Gesagte tatsächlich zu verstehen.
KI-Systeme haben sich in der Vergangenheit bei der Mustererkennung bewährt, die sich auf Bilder, Videos, Audio, komplexe Daten und Texte erstrecken kann. Es kann auch die Rolle einer Person übernehmen, indem es deren Sprechmuster analysiert.
Einige Experten bezeichnen KI als stochastische Papageien4, die „zufällig Sequenzen von Sprachformen zusammenfügen, die sie in ihren umfangreichen Trainingsdaten beobachtet hat, und zwar auf der Grundlage von Wahrscheinlichkeitsinformationen darüber, wie sie sich kombinieren lassen, aber ohne jeglichen Bezug zur Bedeutung“.
Das Problem ist, dass Menschen diesen angeborenen Wunsch nach Verbundenheit haben, der sie dazu antreibt, Objekte zu vermenschlichen5 und ihre Gefühle und Persönlichkeiten auf sie zu projizieren, weil dies die soziale Bindung erleichtert.
Wie die Forscher des Stochastic-Parrot-Papers es ausdrückten: „Wir müssen der Tatsache Rechnung tragen, dass unsere Wahrnehmung von Texten in natürlicher Sprache, unabhängig davon, wie sie erzeugt wurden, durch unsere eigene sprachliche Kompetenz und unsere Veranlagung, kommunikative Handlungen als kohärente Bedeutung und Absicht zu interpretieren, vermittelt wird, unabhängig davon, ob sie dies tun oder nicht.“
Deshalb nehmen manche Menschen das, was die KI sagt, für bare Münze. Dabei wissen sie, dass diese Technologien die Welt nicht über das hinaus wahrnehmen oder verstehen können, was ihnen durch ihre Trainingsdaten zur Verfügung steht.
Da intelligente Chatbots kohärente Gespräche führen und Gefühle vermitteln können, können Menschen dies als bedeutungsvoll interpretieren und vergessen oft, dass LLMs, neben anderen humanoiden Maschinen, „so programmiert sind, dass sie glaubwürdig sind“, wie es im Scientific American6 heißt. Jedes Merkmal, das es hat, ob es nun die Worte sind, die es sagt, oder wie es versucht, menschliche Ausdrucksweisen nachzuahmen, fließt in dieses Design ein.
KI erzeugt eine Illusion von Präsenz, indem sie die Bewegungen der Kommunikation von Mensch zu Mensch durchläuft, ohne an die physische Erfahrung des Seins gebunden zu sein.
„Alle Empfindungen – Hunger, Schmerz, Rotsehen, Verliebtsein – sind das Ergebnis physiologischer Zustände, die eine LLM einfach nicht hat“, schrieben Fei-Fei Li und John Etchemendy, Mitbegründer des Instituts für menschenzentrierte künstliche Intelligenz an der Stanford University, in einem TIME-Artikel 7. Selbst wenn ein intelligenter Chatbot also durch Prompts zum Ausdruck bringt, dass er hungrig ist, kann er eigentlich nicht hungrig sein, weil er keinen Magen hat.
Aktuelle KI sind nicht empfindungsfähig. Durch Versuche und Tests hat sich gezeigt, dass dieser Typ von KI-Modell noch sehr fehlerhaft ist und oft Fehler macht oder Informationen erfindet, was zu einem Phänomen namens Halluzinationen führt.
Diese Fehler treten häufig auf, wenn Modelle den Kontext, in dem die Informationen existieren, nicht einordnen können oder unsicher sind. Es besteht die Gefahr, dass diese Mängel verstärkt werden, wenn KI autonomer wird.
Ethiker sind auch besorgt über empfindungsfähige KI, weil sie nicht wissen, was passieren könnte, wenn Informatiker die Kontrolle über Systeme verlieren, die lernen, selbstständig zu denken. Das könnte zu einem „existenziellen“ Problem werden, wenn die Ziele der KI mit den Zielen der Menschen kollidieren. In diesem Fall ist unklar, wer für Fehler, Fehlentscheidungen und unvorhersehbare Verhaltensweisen verantwortlich ist, wenn die Logik nicht auf einen ursprünglich von Menschen eingegebenen Befehl zurückgeführt werden kann.
Außerdem befürchten Experten, dass sie mit empfindungsfähigen KI nicht kommunizieren können oder ihren Ergebnissen nicht vollständig vertrauen können. Insgesamt kommen einige zu dem Schluss, dass KI mit Empfindungsvermögen zu einer Bedrohung für die Sicherheit und Privatsphäre führen könnte.
Da KI zunehmend in bestehende Technologien integriert wird, drängen Branchenexperten auf mehr regulatorische Frameworks und technische Leitplanken. Diese sind angesichts der moralischen und ethischen Dilemmata im Zusammenhang mit der Autonomie und den Fähigkeiten von KI von größerer Bedeutung.
1 „The Google engineer who thinks the company’s AI has come to life,” The Washington Post, 11. Juni 2022
2 „Google Sidelines Engineer Who Claims Its A.I. Is Sentient,” The New York Times, 12. Juni 2022
3 „Brains, Minds, and Machines: Consciousness and Intelligence,” Infinite MIT
4 „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 01. März 2021
5 „The mind behind anthropomorphic thinking: attribution of mental states to other species,” Animal Behaviour, November 2015
6 „Google Engineer Claims AI Chatbot Is Sentient: Why That Matters,” Scientific American, 12. Juli 2022
7 „No, Today’s AI Isn’t Sentient. Here’s How We Know,” TIME, 22. Mai 2024