Wenn es um fortgeschrittene künstliche Intelligenz wie die agentische KI geht, stellt sich die Frage, wie viel Autonomie eigentlich zu viel ist. Um diese Frage zu beantworten, können wir das Szenario des Büroklammer-Maximierers heranziehen. Das berühmte Gedankenexperiment des Philosophen Nick Bostrom dreht sich um das immer noch hypothetische Konzept der KI-Superintelligenz oder ASI, ein KI-System mit einem intellektuellen Umfang, der den der menschlichen Intelligenz übersteigt. Bolstrom überlegt, was passieren könnte, wenn ein solches System der Herstellung von Büroklammern Vorrang vor allen anderen Zielen einräumt.
In dem beschriebenen Szenario verwendet das System schließlich alle Ressourcen unseres Planeten für die Herstellung von Büroklammern – ein unethisches Ergebnis, wenn das Leben von mehr abhängt als nur von einer endlosen Fülle an winzigen metallischen Büroartikeln. Um auf unsere ursprüngliche Frage zurückzukommen, können wir natürlich zu dem Schluss kommen, dass das betreffende KI-System in diesem hypothetischen Fall zu viel Autonomie hatte.
Die gute Nachricht ist, dass die heutige agentische KI nicht dasselbe ist wie ASI. Dementsprechend bleibt eine Büroklammer-Dystopie, die von einer katastrophal fehlgeleiteten Maschinen-Ethik getrieben wird, unwahrscheinlich. „Wir sind näher dran, aber immer noch weit entfernt“, sagt Varshney.
Andere Risiken, die sich aus der KI-Automatisierung ergeben, sind jedoch viel bedrohlicher. Die Möglichkeiten reichen von künstlichen Agenten, die unangemessene E-Mails versenden, bis hin zum Stoppen und Starten von Maschinen auf eine Weise, die der Benutzer nicht beabsichtigt hatte, erklärt Varshney. Die Bedenken über autonomes KI-Verhalten sind so groß, dass das US-Ministerium für Innere Sicherheit (Department of Homeland Security, DHS) in einem Bericht vom April 2024 über Richtlinien zur KI-Sicherheit das Thema „Autonomie“ in seine Liste der Risiken für kritische Infrastruktursysteme wie Kommunikation, Finanzdienstleistungen und Gesundheitswesen aufgenommen hat.2