Startseite Think Themen KI-Agenten Was sind KI-Agenten?
Erkunden Sie die KI-Agent-Lösung von IBM Für KI-Updates anmelden
Abbildung, die einen Kunden zeigt, der mit einem Chatbot für Kundenservice-interagiert

Veröffentlicht: 3. Juli 2024
Mitwirkende: Anna Gutowska

Was sind KI-Agenten?

Ein Agent für künstliche Intelligenz (KI) bezieht sich auf ein System oder Programm, das in der Lage ist, autonom Aufgaben im Namen eines Benutzers oder eines anderen Systems auszuführen, indem es seinen Workflow gestaltet und verfügbare Tools benutzt.

KI-Agenten können eine Vielzahl von Funktionen umfassen, die über die Verarbeitung natürlicher Sprache hinausgehen, einschließlich der Entscheidungsfindung, Problemlösung, der Interaktion mit externen Umgebungen und der Ausführung von Handlungen.

Diese Agenten können in verschiedenen Anwendungen eingesetzt werden, um komplexe Aufgaben in unterschiedlichen Unternehmenskontexten zu lösen, von Softwaredesign und IT-Automatisierung bis hin zu Code-Generierungstools und dialogorientierten Assistenten. Sie verwenden die fortschrittlichen Techniken der Verarbeitung natürlicher Sprache großer Sprachmodelle (LLMs), um Benutzereingaben zu verstehen und Schritt für Schritt darauf zu reagieren und zu bestimmen, wann externe Tools herangezogen werden müssen.

So wählen Sie das richtige Foundation Model für die KI

Nutzen Sie dieses Framework zur Modellauswahl, um das am besten geeignete Modell auszuwählen und dabei Ihre Leistungsanforderungen mit den Kosten, Risiken und Bereitstellungsanforderungen in Einklang zu bringen.

Ähnliche Inhalte

Mit watsonx einen LangChain KI-Agenten in Python erstellen

Was ist ein Multiagentensystem?

So funktionieren KI-Agenten

Das Herzstück von KI-Agenten sind Large Language Models (LLMs). Aus diesem Grund werden KI-Agenten oft als LLM-Agenten bezeichnet. Herkömmliche LLMs, wie IBM® Granite-Modelle, erstellen ihre Antworten auf der Grundlage der Daten, die zu ihrem Training verwendet wurden, und sind an Wissens- und Argumentationsbeschränkungen gebunden. Im Gegensatz dazu nutzt die Agententechnologie Tool-Aufrufe im Backend, um aktuelle Informationen zu erhalten, den Workflow zu optimieren und eigenständig Teilaufgaben zu erstellen und so komplexe Ziele zu erreichen.

Dabei lernt der autonome Agent, sich im Laufe der Zeit an die Erwartungen der Benutzer anzupassen. Die Fähigkeit des Agenten, vergangene Interaktionen zu speichern und zukünftige Aktionen zu planen, fördert eine personalisierte Erfahrung und umfassende Antworten.1 Dieser Tool-Aufruf kann ohne menschliches Eingreifen erfolgen und erweitert die Möglichkeiten für reale Anwendungen dieser KI-Systeme. Der Ansatz, den KI-Agenten verfolgen, um die von den Benutzern gesetzten Ziele zu erreichen, besteht aus diesen drei Phasen:

Zielinitialisierung und -planung

Obwohl KI-Agenten in ihren Entscheidungsprozessen autonom sind, benötigen sie Ziele und Umgebungen, die von Menschen definiert werden.2 Es gibt drei Haupteinflussfaktoren auf das Verhalten autonomer Agenten: 

  • Das Entwicklerteam, das das Agenten-KI-System entwirft und trainiert. 
  • Das Team, das den Agenten bereitstellt und dem Benutzer Zugriff darauf gewährt.
  • Der Benutzer, der dem KI-Agenten spezifische Ziele vorgibt und verfügbare Tools zur Verwendung festlegt.

Ausgehend von den Zielen des Benutzers und den verfügbaren Werkzeugen des Agenten führt der KI-Agent dann eine Aufgabenzerlegung durch, um die Leistung zu verbessern.3 Im Wesentlichen erstellt der Agent einen Plan mit spezifischen Aufgaben und Teilaufgaben, um das komplexe Ziel zu erreichen.

Für einfache Aufgaben ist eine Planung nicht notwendig. Stattdessen kann ein Agent seine Antworten iterativ überdenken und verbessern, ohne die nächsten Schritte zu planen.

Argumentation mit verfügbaren Tools

KI-Agenten stützen ihre Aktionen auf die Informationen, die sie wahrnehmen. Oft verfügen KI-Agenten nicht über die vollständige Wissensbasis, die für die Bewältigung aller Teilaufgaben innerhalb eines komplexen Ziels erforderlich ist. Um hier Abhilfe zu schaffen, nutzen KI-Agenten die zur Verfügung stehenden Tools. Diese Tools können externe Datensätze, Websuchen, APIs und sogar andere Agenten umfassen. Nachdem die fehlenden Informationen von diesen Tools abgerufen wurden, kann der Bearbeiter seine Wissensdatenbank aktualisieren. Das bedeutet, dass der Agent bei jedem Schritt seinen Aktionsplan neu bewertet und sich selbst korrigiert.  

Um diesen Prozess zu veranschaulichen, stellen wir uns einen Benutzer vor, der seinen Urlaub plant. Der Benutzer beauftragt einen KI-Agenten mit der Vorhersage, welche Woche im nächsten Jahr voraussichtlich das beste Wetter für seinen Surftrip in Griechenland bieten wird. Da das LLM-Modell im Kern des Agenten nicht auf Wettermuster spezialisiert ist, sammelt der Agent Informationen aus einer externen Datenbank, die tägliche Wetterberichte für Griechenland der letzten Jahre enthält.

Trotz dieser neuen Informationen kann der Agent immer noch nicht die optimalen Wetterbedingungen zum Surfen bestimmen, daher wird die nächste Teilaufgabe erstellt. Für diese Teilaufgabe kommuniziert der Agent mit einem externen Agenten, der auf Surfen spezialisiert ist. Nehmen wir an, dass der Agent auf diese Weise erfährt, dass hohe Gezeiten und sonniges Wetter mit wenig bis gar keinem Regen die besten Surfbedingungen bieten.

Der Agent kann nun die Informationen, die er von seinen Tools gelernt hat, kombinieren, um Muster zu erkennen. Er kann vorhersagen, in welcher Woche des nächsten Jahres in Griechenland voraussichtlich hohe Gezeiten, sonniges Wetter und eine geringe Regenwahrscheinlichkeit herrschen werden. Diese Ergebnisse werden dann dem Benutzer präsentiert. Dank dieses Informationsaustauschs zwischen den Tools sind KI-Agenten allgemeiner einsetzbar als herkömmliche KI-Modelle.3

Lernen und Reflexion

KI-Agenten verwenden Feedback-Mechanismen, wie andere KI-Agenten und Human-in-the-Loop (HITL), um die Genauigkeit ihrer Antworten zu verbessern. Kehren wir zu unserem vorherigen Surfbeispiel zurück, um dies zu veranschaulichen. Nachdem der Agent seine Antwort an den Benutzer formuliert hat, speichert er die gelernten Informationen zusammen mit dem Feedback des Benutzers, um seine Leistung zu verbessern und sich an die Präferenzen des Benutzers für zukünftige Ziele anzupassen.

Wenn andere Agenten eingesetzt wurden, um das Ziel zu erreichen, kann auch deren Feedback verwendet werden. Feedback mehrerer Agenten kann besonders nützlich sein, um die Zeit zu minimieren, die menschliche Benutzer damit verbringen, Anweisungen zu geben. Benutzer können jedoch auch während der Aktionen und internen Überlegungen des Agenten Feedback geben, um die Ergebnisse besser auf das angestrebte Ziel abzustimmen.

Feedback-Mechanismen verbessern das Denkvermögen und die Genauigkeit des KI-Agenten, was gemeinhin als iterative Verfeinerung bezeichnet wird.3 Um die Wiederholung derselben Fehler zu vermeiden, können KI-Agenten auch Daten über Lösungen für frühere Hindernisse in einer Wissensdatenbank speichern.

Agentenbasierte versus nicht-agentenbasierte KI-Chatbots

KI-Chatbots verwenden dialogorientierte KI-Techniken wie Natural Language Processing (NLP), um Benutzerfragen zu verstehen und automatisierte Antworten zu geben. Diese Chatbots sind eine Modalität, während die Agenten-Technologie ein technologischer Rahmen ist. 

Nicht-agentenbasierte KI-Chatbots sind Chatbots ohne verfügbare Tools, Gedächtnis und Denkvermögen. Sie können nur kurzfristige Ziele erreichen und nicht im Voraus planen. Wie wir sie kennen, benötigen nicht-agentenbasierte Chatbots eine kontinuierliche Benutzereingabe, um zu antworten. Sie können Antworten auf allgemeine Aufforderungen geben, die höchstwahrscheinlich mit den Erwartungen des Benutzers übereinstimmen, schneiden jedoch bei Fragen, die für den Benutzer und seine Daten spezifisch sind, schlecht ab. Da diese Chatbots kein Gedächtnis haben, können sie nicht aus ihren Fehlern lernen, wenn ihre Antworten unbefriedigend sind.

Im Gegensatz dazu lernen agentenbasierte KI-Chatbots im Laufe der Zeit, sich an die Erwartungen der Benutzer anzupassen und bieten eine personalisierte Erfahrung sowie umfassende Antworten. Sie können komplexe Aufgaben erledigen, indem sie Teilaufgaben ohne menschliches Eingreifen erstellen und verschiedene Pläne in Betracht ziehen. Diese Pläne können bei Bedarf auch selbst korrigiert und aktualisiert werden. Agentenbasierte KI-Chatbots bewerten im Gegensatz zu nicht-agentenbasierten Chatbots ihre Tools und nutzen ihre verfügbaren Ressourcen, um Informationslücken zu schließen. 

Denkparadigmen

Es gibt keine Standardarchitektur für die Erstellung von KI-Agenten. Mehrere Paradigmen existieren zur Lösung mehrstufiger Probleme. 

ReAct (Reasoning and Action) 

Mit diesem Paradigma können wir Agenten anweisen, nach jeder durchgeführten Aktion und bei jeder Tool-Reaktion „nachzudenken“ und zu planen, um zu entscheiden, welches Tool als nächstes verwendet werden soll. Diese Think-Act-Observe-Schleifen werden verwendet, um Probleme Schritt für Schritt zu lösen und Antworten durch einen iterativen Entscheidungsprozess zu verbessern.

Durch die Struktur des Prompts können die Agenten angewiesen werden, langsam zu denken und jeden „Gedanken“ anzuzeigen.4 Das verbale Denken des Agenten vermittelt Erkenntnisse darüber, wie Antworten formuliert werden. In diesem Framework aktualisieren die Agenten ihren Kontext kontinuierlich mit neuen Überlegungen. Dies kann als eine Form des Gedankenketten-Promptings interpretiert werden. 

ReWOO (Reasoning WithOut Observation)

Die ReWOO-Methode eliminiert im Gegensatz zu ReAct die Abhängigkeit von Tool-Outputs für die Maßnahmenplanung. Stattdessen planen die Agenten im Voraus. Die redundante Verwendung von Tools wird vermieden, indem bei der ersten Aufforderung durch den Benutzer vorweggenommen wird, welche Tools verwendet werden sollen.  Dies ist aus einer auf den Menschen ausgerichteten Perspektive erwünscht, da der Benutzer den Plan bestätigen kann, bevor er ausgeführt wird.

Der ReWOO-Workflow besteht aus drei Modulen. Im Planungsmodul antizipiert der Agent seine nächsten Schritte anhand der Aufforderung eines Benutzers. Der nächste Schritt besteht darin, die durch den Aufruf dieser Tools erzeugten Outputs zu sammeln. Schließlich koppelt der Agent den ursprünglichen Plan mit den Outputs des Tools, um eine Antwort zu formulieren. Diese vorausschauende Planung kann die Token-Nutzung und die Rechenkomplexität sowie die Auswirkungen eines zwischenzeitlichen Ausfalls des Tools erheblich reduzieren.

Arten von KI-Agenten

KI-Agenten können so entwickelt werden, dass sie über unterschiedliche Fähigkeitsstufen verfügen. Ein einfacher Agent kann für einfache Ziele bevorzugt werden, um unnötige Rechenkomplexität zu begrenzen. Es gibt 5 Haupttypen von Agenten, in der Reihenfolge vom einfachsten bis zum fortgeschrittensten:

1. Einfache Reflexagenten

Einfache Reflexagenten sind die einfachste Form von Agenten, die ihre Handlungen auf die aktuelle Wahrnehmung gründen. Diese Agenten haben kein Gedächtnis und interagieren nicht mit anderen Agenten, wenn Informationen fehlen. Sie funktionieren nach einer Reihe von sogenannten Reflexen oder Regeln. Das bedeutet, dass der Agent darauf vorprogrammiert ist, Aktionen auszuführen, die bestimmten Bedingungen entsprechen.

Trifft der Agent auf eine Situation, für die er nicht vorbereitet ist, kann er nicht angemessen reagieren. Die Agenten sind nur in Umgebungen effektiv, die vollständig beobachtbar sind und Zugang zu allen notwendigen Informationen gewähren.6

Beispiel: Ein Thermostat, das die Heizung jede Nacht zu einer festgelegten Zeit einschaltet. Die Bedingungs-Aktions-Regel wäre hier: Wenn es 20 Uhr ist, wird die Heizung aktiviert.

2. Modellbasierte Reflexagenten

Modellbasierte Reflexagenten nutzen sowohl ihre aktuelle Wahrnehmung als auch ihr Gedächtnis, um ein internes Modell der Welt aufrechtzuerhalten. Wenn der Agent neue Informationen erhält, wird das Modell aktualisiert. Die Handlungen des Agenten hängen von seinem Modell, seinen Reflexen, früheren Wahrnehmungen und seinem aktuellen Zustand ab.

Diese Agenten können im Gegensatz zu einfachen Reflexagenten Informationen im Gedächtnis ablegen und in teilweise beobachtbaren und sich verändernden Umgebungen operieren. Sie sind jedoch immer noch durch ihre Regeln eingeschränkt.6

Beispiel: Ein Roboterstaubsauger. Während er einen schmutzigen Raum reinigt, erkennt er Hindernisse wie Möbel und passt sich diesen an. Der Roboter speichert auch ein Modell der Bereiche, die er bereits gereinigt hat, um nicht in einer Schleife wiederholter Reinigung stecken zu bleiben. 

3. Zielbasierte Agenten

Zielbasierte Agenten haben ein internes Modell der Welt und verfügen zudem über ein Ziel oder eine Reihe von Zielen. Diese Agenten suchen nach Aktionssequenzen, die ihr Ziel erreichen, und planen diese Aktionen, bevor sie sie ausführen. Diese Suche und Planung verbessern ihre Effektivität im Vergleich zu einfachen und modellbasierten Reflexagenten.7

Beispiel: Ein Navigationssystem, das Ihnen den schnellsten Weg zum Ziel empfiehlt. Das Modell berücksichtigt verschiedene Routen, die zu Ihrem Ziel führen. In diesem Beispiel gibt die Bedingungs-Aktions-Regel des Agenten an, dass er die schnellere Route empfiehlt, sobald eine schnellere gefunden wird.

4. Nutzenbasierte Agenten

Nutzenbasierte Agenten wählen die Abfolge von Aktionen aus, die sowohl das Ziel erreichen als auch den Nutzen oder die Belohnung maximieren. Der Nutzen wird anhand einer Nutzwertfunktion berechnet. Diese Funktion weist jedem Szenario einen Nutzwert zu, der als Metrik die Nützlichkeit einer Handlung oder, vereinfacht gesagt, wie „zufrieden“ der Agent mit dieser Handlung ist, misst.

Zu den Kriterien können Faktoren wie der Fortschritt in Richtung des Ziels, der Zeitaufwand oder die Komplexität der Berechnungen gehören. Der Agent wählt dann die Aktionen aus, die den erwarteten Nutzen maximieren. Solche Agenten sind nützlich, wenn mehrere Szenarien ein gewünschtes Ziel erreichen und das optimale ausgewählt werden muss.7

Beispiel: Ein Navigationssystem, das die Route zu Ihrem Ziel optimiert, indem es den Kraftstoffverbrauch minimiert und die Zeit im Verkehr sowie die Kosten für Mautgebühren reduziert. Dieser Agent misst den Nutzen anhand dieser Kriterien, um die günstigste Route auszuwählen.

5. Lernende Agenten

Lernende Agenten verfügen über die gleichen Funktionen wie die anderen Agententypen, zeichnen sich jedoch durch ihre Lernfähigkeit aus. Neue Erfahrungen werden autonom zu ihrer anfänglichen Wissensbasis hinzugefügt. Dieses Lernen verbessert die Fähigkeit des Agenten, in unbekannten Umgebungen zu agieren. Lernende Agenten können sowohl nutzen- als auch zielbasiert in ihrem Denken sein und bestehen aus vier Hauptelementen:7

  • Lernen: Dies verbessert das Wissen des Agenten, indem er durch seine Vorgaben und Sensoren aus der Umgebung lernt.
  • Kritiker: Diese Funktion gibt dem Agenten Feedback, ob die Qualität seiner Antworten dem Leistungsstandard entspricht.
  • Leistung: Dieses Element ist für die Auswahl von Aktionen basierend auf dem Lernen verantwortlich.
  • Problemgenerator: Er erstellt verschiedene Vorschläge für durchzuführende Aktionen. 

Beispiel: Personalisierte Produktempfehlungen auf E-Commerce-Websites. Diese Agenten verfolgen die Aktivitäten und Präferenzen der Benutzer in ihrem Gedächtnis. Diese Informationen werden verwendet, um dem Benutzer bestimmte Produkte und Dienstleistungen zu empfehlen. Der Zyklus wiederholt sich jedes Mal, wenn neue Empfehlungen gemacht werden. Die Aktivität des Benutzers wird zu Lernzwecken fortlaufend gespeichert, wodurch sich die Genauigkeit des Agenten im Laufe der Zeit verbessert. 

Anwendungsfälle von KI-Agenten
Customer Experience

KI-Agenten können in Websites und Apps integriert werden, um die Customer Experience zu verbessern, indem sie als virtuelle Assistenten dienen, psychologische Unterstützung bieten, Vorstellungsgespräche simulieren und andere damit verbundene Aufgaben übernehmen.Es gibt viele No-Code-Vorlagen für die Implementierung durch die Benutzer, was die Erstellung dieser KI-Agenten noch einfacher macht. 

Gesundheitswesen

KI-Agenten können für verschiedene reale Anwendungen im Gesundheitswesen eingesetzt werden. Multiagentensysteme sind besonders nützlich zur Problemlösung in solchen Umgebungen. Von der Behandlungsplanung für Patienten in der Notaufnahme bis hin zur Verwaltung von Arzneimittelprozessen sparen diese Systeme Zeit und Mühe von medizinischen Fachkräften für dringendere Aufgaben.9

Notfallmaßnahmen

Im Falle von Naturkatastrophen können KI-Agenten mithilfe von Deep-Learning-Algorithmen die Informationen von Benutzern auf Social-Media-Websites abrufen, die gerettet werden müssen. Die Standorte dieser Benutzer können auf Karten verzeichnet werden, um Rettungsdienste dabei zu unterstützen, mehr Menschen in kürzerer Zeit zu retten. Daher können KI-Agenten für das menschliche Leben sowohl bei alltäglichen Aufgaben als auch in lebensrettenden Situationen von großem Nutzen sein.10

Vorteile von KI-Agenten

Aufgabenautomatisierung

Mit den fortschreitenden Entwicklungen in der generativen KI wächst das Interesse an der Optimierung von Workflows mithilfe von KI, auch als intelligente Automatisierung bekannt. KI-Agenten sind KI-Tools, die komplexe Aufgaben automatisieren können, die ansonsten menschliche Ressourcen erfordern würden. Dadurch können Ziele kostengünstig, schnell und im großen Maßstab erreicht werden. Diese Fortschritte bedeuten wiederum, dass menschliche Mitarbeiter dem KI-Assistenten keine Anweisungen mehr bei der Erstellung und Ausführung seiner Aufgaben geben müssen. 

Höhere Leistung

Multiagenten-Frameworks übertreffen in der Regel einzelne Agenten.11 Das liegt daran, dass mit einer größeren Anzahl an Handlungsplänen die Fähigkeit der Agenten, zu lernen und ihre Vorgehensweise zu „überdenken“, verbessert wird. Ein KI-Agent, der Wissen und Feedback von anderen KI-Agenten einbezieht, die auf verwandte Bereiche spezialisiert sind, kann für die Informationssynthese nützlich sein. Diese Zusammenarbeit im Backend von KI-Agenten und die Fähigkeit, Informationslücken zu schließen, sind einzigartig für agentenbasierte Frameworks und machen sie zu einem leistungsstarken Werkzeug und einem bedeutenden Fortschritt in der künstlichen Intelligenz.

Qualität der Antworten

KI-Agenten liefern Antworten, die umfassender, präziser und besser auf den Benutzer zugeschnitten sind als herkömmliche KI-Modelle. Dies ist für uns als Benutzer von großer Bedeutung, da qualitativ hochwertigere Antworten in der Regel zu einer besseren Customer Experience führen. Wie bereits beschrieben, wird dies durch den Austausch von Informationen mit anderen Agenten, die Nutzung externer Tools und die Aktualisierung ihres Gedächtnisses ermöglicht. Diese Verhaltensweisen entwickeln sich von selbst und sind nicht vorprogrammiert.12

Risiken und Einschränkungen

Abhängigkeiten von mehreren Agenten

Komplexe Aufgaben erfordern oft das Wissen mehrerer KI-Agenten. Beim Einsatz von Multiagenten-Frameworks besteht das Risiko von Fehlfunktionen. Systeme mit mehreren Agenten, die auf denselben Foundation Models aufgebaut sind, können gemeinsame Schwachstellen aufweisen. Solche Schwachstellen könnten zu einem systemweiten Ausfall aller beteiligten Agenten führen oder die Anfälligkeit für schädliche Angriffe erhöhen.13 Dies unterstreicht die Bedeutung der Data Governance für die Erstellung von Foundation Models und gründlichen Trainings- und Testprozessen.

Unendliche Feedbackschleifen

Die bequeme, automatische Entscheidungsfindung für menschliche Benutzer unter Verwendung von KI-Agenten birgt auch Risiken. Agenten, die keinen umfassenden Plan erstellen oder ihre Ergebnisse reflektieren können, könnten wiederholt dieselben Tools aufrufen und in unendlichen Feedback-Schleifen enden. Um diese Redundanzen zu vermeiden, könnte ein gewisses Maß an Echtzeit-Überwachung durch Menschen hilfreich sein.13

Rechnerische Komplexität

Die Entwicklung von KI-Agenten von Grund auf ist sowohl zeitaufwändig als auch sehr rechenintensiv. Die Ressourcen, die zum Training eines leistungsstarken Agenten erforderlich sind, können erheblich sein. Außerdem können die Agenten je nach Komplexität der Aufgabe mehrere Tage für die Erledigung von Aufgaben benötigen.12

Best Practices

Aktivitätsprotokolle 

Um das Problem der Abhängigkeiten zwischen mehreren Agenten zu lösen, können die Entwickler den Benutzern Zugang zu Protokollen der Agenten-Aktionen gewähren.14 Die Maßnahmen können die Verwendung externer Tools umfassen und die zur Erreichung des Ziels eingesetzten externen Agenten beschreiben. Diese Transparenz gewährt den Benutzern Einblick in den iterativen Entscheidungsprozess, bietet die Möglichkeit, Fehler zu entdecken und fördert Vertrauen.

Unterbrechung

Es wird empfohlen, zu verhindern, dass die KI-Agenten über übermäßig lange Zeiträume laufen. Dies gilt insbesondere bei unbeabsichtigten unendlichen Feedbackschleifen, Änderungen beim Zugriff auf bestimmte Tools oder Fehlfunktionen aufgrund von Designfehlern. Eine Möglichkeit, dies zu erreichen, ist die Implementierung von Unterbrechbarkeit.

Die Aufrechterhaltung der Kontrolle erfordert, dass menschliche Benutzer die Möglichkeit haben, eine Abfolge von Aktionen oder den gesamten Vorgang kontrolliert zu unterbrechen. Die Entscheidung, ob und wann ein KI-Agent unterbrochen werden soll, erfordert sorgfältiges Vorgehen, da Abbrüche manchmal mehr Schaden als Nutzen anrichten können. Es könnte beispielsweise sicherer sein, einen fehlerhaften Agenten in einem lebensbedrohlichen Notfall weiterlaufen zu lassen, anstatt ihn vollständig abzuschalten.5

Eindeutige Agenten-Identifikatoren

Um das Risiko zu mindern, dass Agentensysteme für böswillige Zwecke verwendet werden, können eindeutige Identifikatoren verwendet werden.14 Wenn diese Identifikatoren für den Zugriff auf externe Systeme durch Agenten erforderlich wären, ließe sich die Herkunft der Entwickler, Anwender und Benutzer des Agenten leichter zurückverfolgen. Dies wäre besonders hilfreich im Falle einer böswilligen Nutzung oder unbeabsichtigten Schädigung durch den Agenten. Dieses Maß an Rechenschaftspflicht würde eine sicherere Umgebung für den Betrieb dieser KI-Agenten schaffen.

Menschliche Überwachung

Um den Lernprozess von KI-Agenten zu unterstützen, insbesondere in den frühen Phasen in einer neuen Umgebung, kann gelegentliches menschliches Feedback hilfreich sein. Dies ermöglicht es dem KI-Agenten, seine Leistung mit dem erwarteten Standard zu vergleichen und sich entsprechend anzupassen. Diese Form des Feedbacks verbessert die Anpassungsfähigkeit des Agenten an die Präferenzen des Benutzers.

Darüber hinaus ist es eine bewährte Praxis, die Zustimmung eines Menschen einzuholen, bevor ein KI-Agent äußerst schwerwiegende Maßnahmen ergreift. Beispielsweise sollten Aktionen wie das Versenden von Massen-E-Mails oder der Handel mit Finanzprodukten eine menschliche Genehmigung erfordern.7 Für solche Bereiche mit hohem Risiko wird ein gewisses Maß an menschlicher Überwachung empfohlen.

Verwandte Produkte und Lösungen
IBM watsonx AI

Nutzen Sie IBM® watsonx AI, ein Unternehmensstudio der nächsten Generation für KI-Entwickler, um KI-Modelle zu trainieren, zu validieren, abzustimmen und bereitzustellen, als Entwicklungsplattform, die die Erstellung von KI-Agenten unterstützt.

watsonx AI erkunden watsonx AI testen

IBM® watsonx Assistant

Verwenden Sie IBM Watsonx Assistant, einen auf Unternehmen abgestimmten KI-Chatbot, der mit generativen Fähigkeiten ausgestattet ist, um präzise, dialogorientierte Antworten zu liefern. 

watsonx Assistant entdecken IBM watsonx Assistant testen

IBM watsonx Code Assistant

Steigern Sie die Produktivität von Entwicklern mit IBM watsonx Code Assistant auf Basis von IBM Granite Foundation Models. Die Funktionen umfassen Codegenerierung, Abgleich und Modernisierung.

Entdecken Sie den watsonx Code Assistant Testen Sie watsonx Code Assistant

IBM watsonx Orchestrate

Entlasten Sie Ihre Workload und steigern Sie die Produktivität durch generative KI-Assistenten in IBM® watsonx Orchestrate, unterstützt durch LLMs. 

Entdecken Sie watsonx Orchestrate watsonx Orchestrate testen

IBM® Consulting Advantage

Wir nutzen IBM Consulting Advantage, unsere KI-gestützte Engagement-Plattform, und erweitern damit unser Fachwissen mit speziell entwickelten GenAI-Agenten, Assistenten und Assets, um Lösungen im großen Maßstab zu liefern und eine schnellere Time-to-Value für die Kunden zu erreichen.

Entdecken Sie IBM Consulting Advantage Access

Zugehörige Ressourcen Mit watsonx einen LangChain KI-Agenten in Python erstellen

Verwenden Sie das LangChain Python-Paket, um einen KI-Agenten in Python mit watsonx und angepassten Tools zu erstellen.

Was ist ein Multiagentensystem?

Ein Multiagentensystem (MAS) besteht aus mehreren Agenten für künstliche Intelligenz (KI), die gemeinsam daran arbeiten, Aufgaben im Namen eines Benutzers oder eines anderen Systems auszuführen.

Trainieren Sie einen Software-Agenten mit Reinforcement Learning darin, sich rational zu verhalten

Verwenden Sie diese Technik des maschinellen Lernens, um Aktionen für Zustände innerhalb einer Umgebung zu identifizieren.

Virtuelle auf generativer KI beruhende Assistenten für Unternehmen: IBM watsonx

Entwickeln Sie KI-Assistenten, die Anwender in die Lage versetzen, Aufgaben ohne Expertenwissen zu erledigen.

KI-gestützte Softwareentwicklung mit Agenten (Assistenten)

Agenten, die auch als Assistenten bezeichnet werden, sind spezialisierte Versionen von LLMs, die vorab angepasst und feinabgestimmt werden, um bestimmte Rollen zu unterstützen.

Was ist ein virtueller Agent?

Ein virtueller Agent kombiniert die Verarbeitung natürlicher Sprache, intelligente Suche und Robotic Process Automation (RPA) in einer dialogorientierten Benutzeroberfläche – typischerweise einem Chatbot.

Machen Sie den nächsten Schritt

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden Buchen Sie eine Live-Demo
Fußnoten

1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu, and Gao Huang, „Expel: Llm-agents are experiential learners“, Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, No. 17, pp. 19632-19642, 2024, https://ijs.aaai.org/index.php/AAAI/article/view/29936 (Link befindet sich außerhalb von ibm.com).

Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O'Keefe, Rosie Campbell, Partner Hund Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos and David G . Robinson, „Practices for Governing Agentic AI Systems“, OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (Link befindet sich außerhalb von ibm.com).

3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, „The Landscape of Emerging AI Agent Architectures for Reasoning, Planning, and Tool Calling: A Survey“, arXiv preprint, 2024, https://arxiv.org/abs/2404.11584 (Link befindet sich außerhalb von ibm.com).

4 Gautier Dagan, Frank Keller, and Alex Lascarides, „Dynamic Planning with a LLM“, arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (Link befindet sich außerhalb von ibm.com).

Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu, and Dongkuan Xu, „ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models," arXiv preprint, 2023, https://arxiv.org/abs/2305.18323 (Link befindet sich außerhalb von ibm.com).

6 Sebastian Schmid, Daniel Schraudner und Andreas Harth, „Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation.“ IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pp. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (Link befindet sich außerhalb von ibm.com).

7 Veselka Sasheva Petrova-Dimitrova, „Classifications of intelligence agents and their applications,“ Fundamental Sciences and Applications, Vol. 28, No. 1, 2022.

8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, and Jirong Wen, „A survey on large language model based autonomous agents“, Frontiers of Computer Science, Vol. 18, No. 6, 2024, https://link.sprunger.com/article/10.1007/s11704-024-40231-1 (Link befindet sich außerhalb von ibm.com).

Jaya R. Haleema, Haleema, N. C. S. N Narayana, „Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients' Medical Information“, Cybernetics and Information Technologies, Vol. 12, No. 3, pp. 140–156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.

10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, „Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data“, International Journal of Critical Infrastructures, Vol. 19, No. 2, pp. 124-139, 2023, https://arxiv.org/abs/2106.07114.

11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu und Deheng Ye. „More agents is all you need.“ arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.

12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein, „Generative agents: Interactive simulacra of human behaviour“, Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pp. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.

13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, EMMA Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, „Visibility into AI Agents“, The 2024 ACM Conference on Fairness, Accountability, and Transparency, pp. 958-973, 2024, https://arxiv.org/abs/2401.13138.

14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca, and Saravan Rajmohan, „Exploring LLM-based Agents for Root Cause Analysis“, arXiv preprint, 2024,  https://arxiv.org/ abs/2403,04123.