Argumentation in Künstlicher Intelligenz (KI) bezieht sich auf den Mechanismus der Nutzung verfügbarer Informationen, um Vorhersagen zu treffen und Schlussfolgerungen zu ziehen. Dabei geht es darum, Daten in einer Form darzustellen, die eine Maschine verarbeiten und verstehen kann, und dann Logik anzuwenden, um eine Entscheidung zu treffen.
Jüngste Veröffentlichungen von Argumentationsmodellen wie DeepSeek-R1, Gemini 2.0 Flash Thinking von Google,Granite 3.2 von IBM und o1 series und o3-mini von OpenAI haben das KI-Reasoning in den Mittelpunkt des Interesses gerückt. Fortschritte in der künstlichen Intelligenz haben es ermöglicht, ihre Fähigkeiten von der Befolgung vordefinierter Regeln zur Integration einer Form der Argumentation zu entwickeln. Und mit der zunehmenden Verbreitung von KI verlagert sich auch die Rolle der Technologie.
Anstatt nur Antworten zu generieren, können die heutigen Argumentationsmodelle über ihre Analyse Schritt für Schritt nachdenken und sie aufschlüsseln. Auf diese Weise kann die KI immer komplexere Probleme angehen und die Benutzer zu sinnvollen Maßnahmen anleiten.
Laut IBM Research Fellow Francesca Rossi ist KI-Reasoning jedoch keine neue Fähigkeit, sondern schon seit den Anfängen der KI in die KI einprogrammiert. Vorprogrammierte Argumentationsfähigkeiten verschafften den Vorhersagen von KI-Modellen ein Maß an Sicherheit, auf das man sich verlassen konnte. Aber neueren KI-Modellen könnte diese Sicherheit und Zuverlässigkeit aufgrund ihrer dynamischeren Argumentationsfähigkeiten fehlen, so Rossi.
Und obwohl KI-Reasoning so konzipiert ist, dass sie die menschliche Argumentation nachahmt, stellte Rossi fest, dass die KI noch viel Arbeit benötigt, um wirklich wie Menschen denken zu können.
KI-Reasoning wird als ein System dargestellt, das typischerweise aus zwei Kernkomponenten besteht:
● Wissensbasis
● Inferenz-Engine
Die Wissensbasis ist das Rückgrat eines KI-Reasoning-Systems. Es enthält Wissensgraphen, Ontologien, semantische Netze und andere Modelle der Wissensrepräsentation. Diese strukturierten Formen bilden reale Entitäten – wie Konzepte, domänenspezifische Informationen, Ereignisse, Fakten, Objekte, Beziehungen, Regeln und Situationen – in einer Struktur ab, die KI-Modelle verarbeiten und verstehen können.
Die Inferenz-Engine fungiert als Gehirn eines KI-Reasoning-Systems. Sie basiert auf trainierten Modellen für maschinelles Lernen. Die Inferenz-Engine implementiert die erforderlichen Logik- und Argumentationsmethoden, um Daten aus der Wissensdatenbank zu analysieren und eine Entscheidung zu treffen.
Um zu veranschaulichen, wie ein KI-Reasoning-Ssystem funktioniert, nehmen wir als Beispiel einen autonomen Bodenreinigungsroboter. Seine Wissensdatenbank kann Informationen über verschiedene Arten von Fußböden und die Art der Reinigung enthalten, die sie benötigen. Die ML-Algorithmen des Roboters wurden ebenfalls trainiert, um jeden Bodentyp auf der Grundlage dieser Wissensdatenbank zu erkennen und zu klassifizieren
.Wenn der Roboter für die Reinigung bereitgestellt wird, empfängt und verarbeitet er Input, einschließlich Bilder und Sensordaten. Dann greift er auf seine Wissensdatenbank und sein Training zurück und wendet die passende Schlussfolgerungstechnik an, um in Echtzeit eine Entscheidung über seine Reinigungsaktion zu treffen, z. B. Staubsaugen und Wischen von Hartholz-, Fliesen- und Vinylböden, aber nur Staubsaugen von Teppichböden.
KI-Systeme implementieren je nach ihren Datensätzen und der Zielanwendung unterschiedliche Strategien. In der Regel verwenden sie eine Kombination dieser Ansätze:
● Abduktives Reasoning
● Agentisches Denken
● Analoges Denken
● Vernünftiger Menschenverstand
● Deduktives Denken
● Unscharfes Denken
● Induktives Denken
● Neurosymbolisches Reasoning
● Probabilistisches Denken
● Räumliches Denken
● Zeitliches Denken
Abduktives Denken zielt darauf ab, die wahrscheinlichste Schlussfolgerung auf der Grundlage der derzeit verfügbaren Beobachtungen zu formulieren. Im Gesundheitswesen beispielsweise verwenden diagnostische Algorithmen abduktives Denken, um die bestmögliche Krankheit zu identifizieren, die einer Reihe von Symptomen nach vordefinierten Kriterien in einer Wissensdatenbank entspricht.
Agentisches Reasoning ermöglicht es KI-Agenten, Aufgaben autonom auszuführen. Einfache Agenten verlassen sich auf voreingestellte Regeln, während modellbasierte Agenten ihre aktuelle Wahrnehmung und ihr Gedächtnis sowie eine Reihe von Regeln nutzen, um in Umgebungen zu agieren. Zielbasierte Agenten planen und wählen Aktionen aus, die ihnen helfen, ein Ziel zu erreichen. Auch nutzenbasierte Agenten haben ein Ziel, aber berücksichtigen auch, wie optimal das Ergebnis sein wird.
Zwei gängige Argumentationsparadigmen für agentische KI sind ReAct (Reasoning and Action) und ReWOO (Reasoning WithOut Observation). ReAct setzt eine Strategie des Denkens, Handelns und Beobachtens ein, um Probleme Schritt für Schritt zu lösen und die Antworten iterativ zu verbessern. ReWOO plant im Voraus, bevor es eine Antwort formuliert.
Analoges Reasoning überträgt Wissen von einer Situation in eine andere. Diese Reasoning-Methodik stützt sich auf Analogien, um Parallelen oder Ähnlichkeiten zwischen vergangenen und neuen Szenarien zu finden. Die Forschung zeigt, dass KI-Modelle, insbesondere generative vortrainierte Transformer (GPTs), immer noch Schwierigkeiten mit analogem Reasoning haben.1
Beim gesunden Menschenverstand werden allgemeines Wissen über die Welt und praktisches Wissen über den Alltag genutzt, um Entscheidungen zu treffen. Große Sprachmodelle (LLMs) können beispielsweise Muster aus der natürlichen Sprache ableiten, die dem gesunden Menschenverstand entsprechen.
Deduktives Denken zieht spezifische Schlussfolgerungen aus allgemeinen Fakten oder allgemeineren Hypothesen. Das bedeutet, wenn die Annahme wahr ist, dann muss auch die Schlussfolgerung wahr sein.
Experten-Systeme sind ein Beispiel für KI-Systeme, die auf deduktivem Reasoning beruhen. Sie sind so konzipiert, dass sie die Reasoning-Funktionen menschlicher Experten nachahmen. Diese Systeme sind mit einer Wissensbasis ausgestattet, die Informationen und Regeln enthält, die für einen bestimmten Bereich relevant sind.
Regelbasierte Systeme, die eine Untergruppe der Expertensysteme von Experten sind, verlassen sich bei ihrer Argumentation auf Wenn-Dann-Regeln. Sie können beispielsweise im Finanzwesen eingesetzt werden, um bei der Betrugserkennung zu helfen.
Unscharfe Schlussfolgerungen berücksichtigen Wahrheitsgrade anstelle von absoluten Binärwerten wie wahr oder falsch. Es hilft, mit Unschärfen umzugehen.
Zum Beispiel bei der Stimmungsanalyse kann Fuzzy Reasoning Text bewerten und feststellen, ob er eine positive, negative oder neutrale Stimmung ausdrückt.
Im Vergleich zum deduktiven Denken nutzt das induktive Denken spezifische Beobachtungen, um eine breitere Verallgemeinerung abzuleiten. Diese Art des Reasonings wird typischerweise in maschinellem Lernen wie überwachtem Lernen implementiert, was KI-Modelle darin trainiert, Ausgaben auf der Grundlage gekennzeichneter Trainingsdaten vorherzusagen. Auch Neural Networks nutzen induktives Denken, um die zugrunde liegenden Muster und Beziehungen in Datensätzen zu identifizieren.
Symbolisches Denken stellt Konzepte oder Objekte als Symbole statt als Zahlen dar und manipuliert sie nach logischen Regeln. Neurosymbolische KI kombiniert die Funktionen von neuralen Netzen mit symbolischem Denken für eine robustere Entscheidungsfindung. Deep Learning ist ein relativ neuer Fortschritt und immer noch ein aufstrebendes Forschungsgebiet.
Diese Reasoning-Methode misst die statistische Wahrscheinlichkeit unterschiedlicher Ergebnisse. Sie hilft bei der Entscheidungsfindung unter mehrdeutigen oder unsicheren Bedingungen, z. B. wenn die Daten begrenzt sind oder wenn unterschiedliche Ergebnisse möglich sind und bewertet werden müssen.
Naive Bayes-Klassifikatoren verwenden für Klassifikationsaufgaben beispielsweise Wahrscheinlichkeitsprinzipien. Probabilistisches Reasoning wird auch für Aufgaben zur Verarbeitung natürlicher Sprache (NLP) und generative KI-Anwendungen verwendet.
Räumliches Denken ermöglicht es intelligenten Systemen wie autonomen Fahrzeugen und Robotern, dreidimensionale Räume zu bewältigen. Diese Art des Denkens kann geometrische Modellierung umfassen, um Formen und Oberflächen zu verstehen, sowie Wegfindungsalgorithmen, die dabei helfen, den kürzesten oder optimalsten Weg zu bestimmen, um effizient durch dynamische Umgebungen zu navigieren.
Das räumliche Denken kann auch Convolutional Neural Networks (CNNs) integrieren, die dreidimensionale Daten zur Bildklassifizierung und Objekterkennung verwenden.
Durch das zeitliche Denken lernen KI-Systeme, zeitspezifische Daten zu verarbeiten und Abläufe von Ereignissen zu verstehen, sodass sie Pläne formulieren, Aufgaben planen oder Prognosen erstellen können.
Neuronale Netzwerke (RNNs)zum Beispiel werden mit sequentiellen oder Zeitreihendaten trainiert, um logische Schlussfolgerungen über zukünftige Ergebnisse zu ziehen. Ein RNN kann verwendet werden, um zukünftige Verkäufe zu prognostizieren, die Aktienmarktentwicklung vorherzusagen oder Wettervorhersagen zu erstellen.
Branchen-Newsletter
Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Reasoning kann zu leistungsfähigeren KI-Anwendungen führen, aber es hat auch seine Grenzen. Hier sind einige Herausforderungen, die mit KI-Schlüsselsystemen verbunden sind:
● Verzerrung
● Rechenkosten
● Interpretierbarkeit
Verzerrungen, die in den Trainingsdaten vorhanden sein könnten, können auf die Argumentationssysteme der KI einfließen. Eine Diversifizierung der Datenquellen kann dazu beitragen, Verzerrungen abzuschwächen. Darüber hinaus sind die Einbeziehung menschlicher Aufsicht, die Integration von KI-Ethik in die algorithmische Entwicklung und die Etablierung von KI-Governance von entscheidender Bedeutung, um sicherzustellen, dass diese Denksysteme ethisch und fair Entscheidungen treffen.
Komplexes Reasoning erfordert eine erhebliche Rechenleistung, was das Skalieren dieser Systeme erschwert. Unternehmen müssen KI-Modelle in Hinblick auf Effizienz optimieren und gleichzeitig die Genauigkeit bewahren. Sie müssen auch bereit sein, in die notwendigen Ressourcen für Entwicklung, Training und Bereitstellung dieser Reasoning-Systeme zu investieren.
KI-Reasoning-Systeme, insbesondere die komplexeren, sind oft Blackbox-Modelle. Sie haben keine Transparenz in ihren Entscheidungsfindungsprozessen und Entscheidungstechniken. Verschiedene Methoden können dazu beitragen, die Interpretierbarkeit in KI-Modellen zu etablieren, und die Entwicklung interpretierbarer Systeme kann dazu beitragen, Vertrauen bei Benutzern aufzubauen.
KI-gestütztes Reasoning kann im Unternehmenskontext wertvoll sein, da es bei der Problemlösung und Automatisierung komplexer Aufgaben hilft. Hier sind einige Branchen, die von KI-Reasoning-Systemen profitieren können:
● Kundenservice
● Cybersicherheit
● Gesundheitswesen
● Fertigung
● Robotertechnik
Dialogorientierte KI, wie z. B. Chatbot oder virtuelle Agenten, können KI für genauere Antworten auf Kundenanfragen nutzen. Einzelhändler können auch die KI für ihre Empfehlungsmaschine nutzen und relevante Artikel für ein persönlicheres und verbessertes Benutzererlebnis vorschlagen.
KI-Systeme können Cybersicherheitstechnologien bei der Überwachung und Erkennung von Bedrohungen unterstützen. Sie können auch schnell eine geeignete Vorgehensweise empfehlen und so die Reaktionszeiten verbessern.
KI-Argumentationsmodelle können bei der medizinischen Diagnose helfen und Behandlungspläne vorschlagen. Sie können auch dazu beitragen, die Arzneimittelforschung zu beschleunigen, indem sie die besten Moleküle zum Testen der Arzneimittelentwicklung finden.
KI-Schlussfolgerungssysteme können bei der Bedarfsprognose helfen, um die Bestandskontrolle zu verbessern. Auch vorausschauende Wartungssysteme können sich auf KI-Schlussfolgerungen stützen, um Geräteprobleme in Echtzeit zu erkennen und zeitnahe Korrekturen zu empfehlen.
Wenn Roboter mit logischen Fähigkeiten ausgestattet sind, können sie in realen Räumen effektiver arbeiten und besser mit Menschen und anderen Maschinen interagieren. Sie können autonom logische Schlussfolgerungen ziehen, was dazu beiträgt, ihre Anpassungsfähigkeit, Umgebungskartierung, Navigation und Objektmanipulation zu verbessern.
Alle Links befinden sich außerhalb von ibm.com
1 Bewertung der Robustheit des analogen Denkens in GPT-Modellen, OpenReview.net, 20. Februar 2025