Ein AI Agent bezieht sich auf ein System oder Programm, das in der Lage ist, autonom Aufgaben im Namen eines Benutzers oder eines anderen Systems auszuführen, indem es seinen Workflow gestaltet und verfügbare Tools benutzt.
AI Agents können eine Vielzahl von Funktionen umfassen, die über die Verarbeitung natürlicher Sprache hinausgehen, einschließlich der Entscheidungsfindung, Problemlösung, der Interaktion mit externen Umgebungen und der Ausführung von Handlungen.
Diese Agenten können in verschiedenen Anwendungen eingesetzt werden, um komplexe Aufgaben in unterschiedlichen Unternehmenskontexten zu lösen, von Softwaredesign und IT-Automatisierung bis hin zu Code-Generierungstools und dialogorientierten Assistenten. Sie verwenden die fortschrittlichen Techniken der Verarbeitung natürlicher Sprache großer Sprachmodelle (LLMs), um Benutzereingaben zu verstehen und Schritt für Schritt darauf zu reagieren und zu bestimmen, wann externe Tools herangezogen werden müssen.
Das Herzstück von AI Agents sind Large Language Models (LLMs). Aus diesem Grund werden KI-Agenten oft als LLM-Agenten bezeichnet. Herkömmliche LLMs, wie IBM® Granite-Modelle, erstellen ihre Antworten auf der Grundlage der Daten, die zu ihrem Training verwendet wurden, und sind an Wissens- und Argumentationsbeschränkungen gebunden. Im Gegensatz dazu nutzt die Agententechnologie Tool-Aufrufe im Backend, um aktuelle Informationen zu erhalten, den Workflow zu optimieren und eigenständig Teilaufgaben zu erstellen und so komplexe Ziele zu erreichen.
Dabei lernt der autonome Agent, sich im Laufe der Zeit an die Erwartungen der Benutzer anzupassen. Die Fähigkeit des Agenten, vergangene Interaktionen zu speichern und zukünftige Aktionen zu planen, fördert eine personalisierte Erfahrung und umfassende Antworten.1 Dieser Tool-Aufruf kann ohne menschliches Eingreifen erfolgen und erweitert die Möglichkeiten für reale Anwendungen dieser KI-Systeme. Der Ansatz, den KI-Agenten verfolgen, um die von den Benutzern gesetzten Ziele zu erreichen, besteht aus diesen drei Phasen:
Obwohl AI Agents in ihren Entscheidungsprozessen autonom sind, benötigen sie Ziele und Umgebungen, die von Menschen definiert werden.2 Es gibt drei Haupteinflussfaktoren auf das Verhalten autonomer Agenten:
Ausgehend von den Zielen des Benutzers und den verfügbaren Werkzeugen des Agenten führt der AI Agent dann eine Aufgabenzerlegung durch, um die Leistung zu verbessern.3 Im Wesentlichen erstellt der Agent einen Plan mit spezifischen Aufgaben und Teilaufgaben, um das komplexe Ziel zu erreichen.
Für einfache Aufgaben ist eine Planung nicht notwendig. Stattdessen kann ein Agent seine Antworten iterativ überdenken und verbessern, ohne die nächsten Schritte zu planen.
AI Agents stützen ihre Aktionen auf die Informationen, die sie wahrnehmen. Oft verfügen AI Agents nicht über die vollständige Wissensbasis, die für die Bewältigung aller Teilaufgaben innerhalb eines komplexen Ziels erforderlich ist. Um hier Abhilfe zu schaffen, nutzen AI Agents die zur Verfügung stehenden Tools. Diese Tools können externe Datensätze, Websuchen, APIs und sogar andere Agenten umfassen. Nachdem die fehlenden Informationen von diesen Tools abgerufen wurden, kann der Bearbeiter seine Wissensdatenbank aktualisieren. Das bedeutet, dass der Agent bei jedem Schritt seinen Aktionsplan neu bewertet und sich selbst korrigiert.
Um diesen Prozess zu veranschaulichen, stellen wir uns einen Benutzer vor, der seinen Urlaub plant. Der Benutzer beauftragt einen AI Agent mit der Vorhersage, welche Woche im nächsten Jahr voraussichtlich das beste Wetter für seinen Surftrip in Griechenland bieten wird. Da das LLM-Modell im Kern des Agenten nicht auf Wettermuster spezialisiert ist, sammelt der Agent Informationen aus einer externen Datenbank, die tägliche Wetterberichte für Griechenland der letzten Jahre enthält.
Trotz dieser neuen Informationen kann der Agent immer noch nicht die optimalen Wetterbedingungen zum Surfen bestimmen, daher wird die nächste Teilaufgabe erstellt. Für diese Teilaufgabe kommuniziert der Agent mit einem externen Agenten, der auf Surfen spezialisiert ist. Nehmen wir an, dass der Agent auf diese Weise erfährt, dass hohe Gezeiten und sonniges Wetter mit wenig bis gar keinem Regen die besten Surfbedingungen bieten.
Der Agent kann nun die Informationen, die er von seinen Tools gelernt hat, kombinieren, um Muster zu erkennen. Er kann vorhersagen, in welcher Woche des nächsten Jahres in Griechenland voraussichtlich hohe Gezeiten, sonniges Wetter und eine geringe Regenwahrscheinlichkeit herrschen werden. Diese Ergebnisse werden dann dem Benutzer präsentiert. Dank dieses Informationsaustauschs zwischen den Tools sind KI-Agenten allgemeiner einsetzbar als herkömmliche KI-Modelle.3
AI Agents verwenden Feedback-Mechanismen, wie andere AI Agents und Human-in-the-Loop (HITL), um die Genauigkeit ihrer Antworten zu verbessern. Kehren wir zu unserem vorherigen Surfbeispiel zurück, um dies zu veranschaulichen. Nachdem der Agent seine Antwort an den Benutzer formuliert hat, speichert er die gelernten Informationen zusammen mit dem Feedback des Benutzers, um seine Leistung zu verbessern und sich an die Präferenzen des Benutzers für zukünftige Ziele anzupassen.
Wenn andere Agents eingesetzt wurden, um das Ziel zu erreichen, kann auch deren Feedback verwendet werden. Feedback mehrerer Agents kann besonders nützlich sein, um die Zeit zu minimieren, die menschliche Benutzer damit verbringen, Anweisungen zu geben. Benutzer können jedoch auch während der Aktionen und internen Überlegungen des Agenten Feedback geben, um die Ergebnisse besser auf das angestrebte Ziel abzustimmen.2
Feedback-Mechanismen verbessern das Denkvermögen und die Genauigkeit des KI-Agenten, was gemeinhin als iterative Verfeinerung bezeichnet wird.3 Um die Wiederholung derselben Fehler zu vermeiden, können KI-Agenten auch Daten über Lösungen für frühere Herausforderungen in einer Wissensdatenbank speichern.
Branchen-Newsletter
Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
KI-Chatbots verwenden dialogorientierte KI-Techniken wie Natural Language Processing (NLP), um Benutzerfragen zu verstehen und automatisierte Antworten zu geben. Diese Chatbots sind eine Modalität, während die Agenten-Technologie ein technologischer Rahmen ist.
Nicht-agentenbasierte KI-Chatbots sind Chatbots ohne verfügbare Tools, Speicher und logischem Denken. Sie können nur kurzfristige Ziele erreichen und nicht im Voraus planen. Wie wir sie kennen, benötigen nicht-agentenbasierte Chatbots eine kontinuierliche Benutzereingabe, um zu antworten. Sie können Antworten auf allgemeine Aufforderungen geben, die höchstwahrscheinlich mit den Erwartungen des Benutzers übereinstimmen, schneiden jedoch bei Fragen, die für den Benutzer und seine Daten spezifisch sind, schlecht ab. Da diese Chatbots keinen Speicher haben, können sie nicht aus ihren Fehlern lernen, wenn ihre Antworten unbefriedigend sind.
Im Gegensatz dazu lernen agentenbasierte KI-Chatbots im Laufe der Zeit, sich an die Erwartungen der Benutzer anzupassen und bieten eine personalisierte Erfahrung sowie umfassende Antworten. Sie können komplexe Aufgaben erledigen, indem sie Teilaufgaben ohne menschliches Eingreifen erstellen und verschiedene Pläne in Betracht ziehen. Diese Pläne können bei Bedarf auch selbst korrigiert und aktualisiert werden. Agentenbasierte KI-Chatbots bewerten im Gegensatz zu nicht-agentenbasierten Chatbots ihre Tools und nutzen ihre verfügbaren Ressourcen, um Informationslücken zu schließen.
Es gibt keine Standardarchitektur für die Erstellung von KI-Agenten. Mehrere Paradigmen existieren zur Lösung mehrstufiger Probleme.
Mit diesem Paradigma können wir Agenten anweisen, nach jeder durchgeführten Aktion und bei jeder Tool-Reaktion „nachzudenken“ und zu planen, um zu entscheiden, welches Tool als nächstes verwendet werden soll. Diese Think-Act-Observe-Schleifen werden verwendet, um Probleme Schritt für Schritt zu lösen und Antworten durch einen iterativen Entscheidungsprozess zu verbessern.
Durch die Struktur des Prompts können die Agenten angewiesen werden, langsam zu denken und jeden „Gedanken“ anzuzeigen.4 Das verbale Denken des Agenten vermittelt Erkenntnisse darüber, wie Antworten formuliert werden. In diesem Framework aktualisieren die Agenten ihren Kontext kontinuierlich mit neuen Überlegungen.Dies kann als eine Form des Gedankenketten-Promptings interpretiert werden.
Die ReWOO-Methode eliminiert im Gegensatz zu ReAct die Abhängigkeit von Tool-Outputs für die Maßnahmenplanung. Stattdessen planen die Agenten im Voraus. Die redundante Verwendung von Tools wird vermieden, indem bei der ersten Aufforderung durch den Benutzer vorweggenommen wird, welche Tools verwendet werden sollen. Dies ist aus einer auf den Menschen ausgerichteten Perspektive erwünscht, da der Benutzer den Plan bestätigen kann, bevor er ausgeführt wird.
Der ReWOO-Workflow besteht aus drei Modulen. Im Planungsmodul antizipiert der Agent seine nächsten Schritte anhand der Aufforderung eines Benutzers. Der nächste Schritt besteht darin, die durch den Aufruf dieser Tools erzeugten Outputs zu sammeln. Schließlich koppelt der Agent den ursprünglichen Plan mit den Outputs des Tools, um eine Antwort zu formulieren. Diese vorausschauende Planung kann die Token-Nutzung und die Rechenkomplexität sowie die Auswirkungen eines zwischenzeitlichen Ausfalls des Tools erheblich reduzieren.5
AI Agents können so entwickelt werden, dass sie über unterschiedliche Fähigkeitsstufen verfügen. Ein einfacher Agent kann für einfache Ziele bevorzugt werden, um unnötige Rechenkomplexität zu begrenzen. Es gibt 5 Arten von Agents, in der Reihenfolge vom einfachsten bis zum fortgeschrittensten:
Einfache Reflexagenten sind die einfachste Form von Agents, die ihre Handlungen auf die aktuelle Wahrnehmung gründen. Diese Agents haben kein Gedächtnis und interagieren nicht mit anderen Agenten, wenn Informationen fehlen. Sie funktionieren nach einer Reihe von sogenannten Reflexen oder Regeln. Das bedeutet, dass der Agent darauf vorprogrammiert ist, Aktionen auszuführen, die bestimmten Bedingungen entsprechen.
Trifft der Agent auf eine Situation, für die er nicht vorbereitet ist, kann er nicht angemessen reagieren. Die Agenten sind nur in Umgebungen effektiv, die vollständig beobachtbar sind und Zugang zu allen notwendigen Informationen gewähren.6
Beispiel: Ein Thermostat, das die Heizung jede Nacht zu einer festgelegten Zeit einschaltet. Die Bedingungs-Aktions-Regel wäre hier: Wenn es 20 Uhr ist, wird die Heizung aktiviert.
Modellbasierte Reflexagenten nutzen sowohl ihre aktuelle Wahrnehmung als auch ihr Gedächtnis, um ein internes Modell der Welt aufrechtzuerhalten. Wenn der Agent neue Informationen erhält, wird das Modell aktualisiert. Die Handlungen des Agenten hängen von seinem Modell, seinen Reflexen, früheren Wahrnehmungen und seinem aktuellen Zustand ab.
Diese Agents können im Gegensatz zu einfachen Reflexagenten Informationen im Gedächtnis ablegen und in teilweise beobachtbaren und sich verändernden Umgebungen operieren. Sie sind jedoch immer noch durch ihre Regeln eingeschränkt.6
Beispiel: Ein Roboterstaubsauger. Während er einen schmutzigen Raum reinigt, erkennt er Hindernisse wie Möbel und passt sich diesen an. Der Roboter speichert auch ein Modell der Bereiche, die er bereits gereinigt hat, um nicht in einer Schleife wiederholter Reinigung stecken zu bleiben.
Zielbasierte Agents haben ein internes Modell der Welt und verfügen zudem über ein Ziel oder eine Reihe von Zielen. Diese Agents suchen nach Aktionssequenzen, die ihr Ziel erreichen, und planen diese Aktionen, bevor sie sie ausführen. Diese Suche und Planung verbessern ihre Effektivität im Vergleich zu einfachen und modellbasierten Reflexagenten.7
Beispiel: Ein Navigationssystem, das Ihnen den schnellsten Weg zum Ziel empfiehlt. Das Modell berücksichtigt verschiedene Routen, die zu Ihrem Ziel führen. In diesem Beispiel gibt die Bedingungs-Aktions-Regel des Agenten an, dass er die schnellere Route empfiehlt, sobald eine schnellere gefunden wird.
Nutzenbasierte Agents wählen die Abfolge von Aktionen aus, die sowohl das Ziel erreichen als auch den Nutzen oder die Belohnung maximieren. Der Nutzen wird anhand einer Nutzwertfunktion berechnet. Diese Funktion weist jedem Szenario einen Nutzwert zu, der als Metrik die Nützlichkeit einer Handlung oder, vereinfacht gesagt, wie „zufrieden“ der Agent mit dieser Handlung ist, misst.
Zu den Kriterien können Faktoren wie der Fortschritt in Richtung des Ziels, der Zeitaufwand oder die Komplexität der Berechnungen gehören. Der Agent wählt dann die Aktionen aus, die den erwarteten Nutzen maximieren. Solche Agenten sind nützlich, wenn mehrere Szenarien ein gewünschtes Ziel erreichen und das optimale ausgewählt werden muss.7
Beispiel: Ein Navigationssystem, das die Route zu Ihrem Ziel optimiert, indem es den Kraftstoffverbrauch minimiert und die Zeit im Verkehr sowie die Kosten für Mautgebühren reduziert. Dieser Agent misst den Nutzen anhand dieser Kriterien, um die günstigste Route auszuwählen.
Lernende Agents verfügen über die gleichen Funktionen wie die anderen Agententypen, zeichnen sich jedoch durch ihre Lernfähigkeit aus. Neue Erfahrungen werden autonom zu ihrer anfänglichen Wissensbasis hinzugefügt. Dieses Lernen verbessert die Fähigkeit des Agenten, in unbekannten Umgebungen zu agieren. Lernende Agenten können sowohl nutzen- als auch zielbasiert in ihrem Denken sein und bestehen aus vier Hauptelementen:7
Beispiel: Personalisierte Produktempfehlungen auf E-Commerce-Websites. Diese Agenten verfolgen die Aktivitäten und Präferenzen der Benutzer in ihrem Speicher. Diese Informationen werden verwendet, um dem Benutzer bestimmte Produkte und Dienstleistungen zu empfehlen. Der Zyklus wiederholt sich jedes Mal, wenn neue Empfehlungen gemacht werden. Die Aktivität des Benutzers wird zu Lernzwecken fortlaufend gespeichert,wodurch sich die Genauigkeit des Agenten im Laufe der Zeit verbessert.
AI Agents können in Websites und Apps integriert werden, um die Customer Experience zu verbessern, indem sie als virtuelle Assistenten dienen, psychologische Unterstützung bieten, Vorstellungsgespräche simulieren und andere damit verbundene Aufgaben übernehmen.8 Es gibt viele No-Code-Vorlagen für die Implementierung durch die Benutzer, was die Erstellung dieser AI Agents noch einfacher macht.
AI Agents können für verschiedene reale Anwendungen im Gesundheitswesen eingesetzt werden. Multiagentensysteme sind besonders nützlich zur Problemlösung in solchen Umgebungen. Von der Behandlungsplanung für Patienten in der Notaufnahme bis hin zur Verwaltung von Arzneimittelprozessen sparen diese Systeme Zeit und Mühe von medizinischen Fachkräften für dringendere Aufgaben.9
Im Falle von Naturkatastrophen können AI Agents mithilfe von Deep-Learning-Algorithmen die Informationen von Benutzern auf Social-Media-Websites abrufen, die gerettet werden müssen. Die Standorte dieser Benutzer können auf Karten verzeichnet werden, um Rettungsdienste dabei zu unterstützen, mehr Menschen in kürzerer Zeit zu retten. Daher können AI Agents für das menschliche Leben sowohl bei alltäglichen Aufgaben als auch in lebensrettenden Situationen von großem Nutzen sein.10
Mit den fortschreitenden Entwicklungen in der generativen KI wächst das Interesse an der Optimierung von Workflows mithilfe von KI, auch als intelligente Automatisierung bekannt. AI Agents sind KI-Tools, die komplexe Aufgaben automatisieren können, die ansonsten menschliche Ressourcen erfordern würden. Dadurch können Ziele kostengünstig, schnell und im großen Maßstab erreicht werden. Diese Fortschritte bedeuten wiederum, dass menschliche Mitarbeiter dem KI-Assistenten keine Anweisungen mehr bei der Erstellung und Ausführung seiner Aufgaben geben müssen.
Multiagenten-Frameworks übertreffen in der Regel einzelne Agenten.11 Das liegt daran, dass mit einer größeren Anzahl an Handlungsplänen die Fähigkeit der Agenten, zu lernen und ihre Vorgehensweise zu „überdenken“, verbessert wird. Ein KI-Agent, der Wissen und Feedback von anderen AI Agents einbezieht, die auf verwandte Bereiche spezialisiert sind, kann für die Informationssynthese nützlich sein. Diese Zusammenarbeit im Backend von AI Agents und die Fähigkeit, Informationslücken zu schließen, sind einzigartig für agentenbasierte Frameworks und machen sie zu einem leistungsstarken Werkzeug und einem bedeutenden Fortschritt in der künstlichen Intelligenz.
AI Agents liefern Antworten, die umfassender, präziser und besser auf den Benutzer zugeschnitten sind als herkömmliche KI-Modelle. Dies ist für uns als Benutzer von großer Bedeutung, da qualitativ hochwertigere Antworten in der Regel zu einer besseren Customer Experience führen. Wie bereits beschrieben, wird dies durch den Austausch von Informationen mit anderen Agenten, die Nutzung externer Tools und die Aktualisierung ihres Gedächtnisses ermöglicht. Diese Verhaltensweisen entwickeln sich von selbst und sind nicht vorprogrammiert.12
Komplexe Aufgaben erfordern oft das Wissen mehrerer AI Agents. Beim Einsatz von Multiagenten-Frameworks besteht das Risiko von Fehlfunktionen. Systeme mit mehreren Agenten, die auf denselben Foundation Models aufgebaut sind, können gemeinsame Schwachstellen aufweisen. Solche Schwachstellen könnten zu einem systemweiten Ausfall aller beteiligten Agenten führen oder die Anfälligkeit für schädliche Angriffe erhöhen.13 Dies unterstreicht die Bedeutung der Data Governance für die Erstellung von Foundation Models und gründlichen Trainings- und Testprozessen.
Die bequeme, automatische Entscheidungsfindung für menschliche Benutzer unter Verwendung von AI Agents birgt auch Risiken. Agenten, die keinen umfassenden Plan erstellen oder ihre Ergebnisse reflektieren können, könnten wiederholt dieselben Tools aufrufen und in unendlichen Feedback-Schleifen enden. Um diese Redundanzen zu vermeiden, könnte ein gewisses Maß an Echtzeit-Überwachung durch Menschen hilfreich sein.13
Die Entwicklung von AI Agents von Grund auf ist sowohl zeitaufwändig als auch sehr rechenintensiv. Die Ressourcen, die zum Training eines leistungsstarken Agenten erforderlich sind, können erheblich sein. Außerdem können die Agenten je nach Komplexität der Aufgabe mehrere Tage für die Erledigung von Aufgaben benötigen.12
Um das Problem der Abhängigkeiten zwischen mehreren Agenten zu lösen, können die Entwickler den Benutzern Zugang zu Protokollen der Agenten-Aktionen gewähren.14 Die Maßnahmen können die Verwendung externer Tools umfassen und die zur Erreichung des Ziels eingesetzten externen Agenten beschreiben. Diese Transparenz gewährt den Benutzern Einblick in den iterativen Entscheidungsprozess, bietet die Möglichkeit, Fehler zu entdecken und fördert Vertrauen.
Es wird empfohlen, zu verhindern, dass die AI Agents über übermäßig lange Zeiträume laufen. Dies gilt insbesondere bei unbeabsichtigten unendlichen Feedbackschleifen, Änderungen beim Zugriff auf bestimmte Tools oder Fehlfunktionen aufgrund von Designfehlern. Eine Möglichkeit, dies zu erreichen, ist die Implementierung von Unterbrechbarkeit.
Die Aufrechterhaltung der Kontrolle erfordert, dass menschliche Benutzer die Möglichkeit haben, eine Abfolge von Aktionen oder den gesamten Vorgang kontrolliert zu unterbrechen. Die Entscheidung, ob und wann ein AI Agent unterbrochen werden soll, erfordert sorgfältiges Vorgehen, da Abbrüche manchmal mehr Schaden als Nutzen anrichten können. Es könnte beispielsweise sicherer sein, einen fehlerhaften Agenten in einem lebensbedrohlichen Notfall weiterlaufen zu lassen, anstatt ihn vollständig abzuschalten.5
Um das Risiko zu mindern, dass Agentensysteme für böswillige Zwecke verwendet werden, können eindeutige Identifikatoren verwendet werden.14 Wenn diese Identifikatoren für den Zugriff auf externe Systeme durch Agenten erforderlich wären, ließe sich die Herkunft der Entwickler, Anwender und Benutzer des Agenten leichter zurückverfolgen. Dies wäre besonders hilfreich im Falle einer böswilligen Nutzung oder unbeabsichtigten Schädigung durch den Agenten. Dieses Maß an Rechenschaftspflicht würde eine sicherere Umgebung für den Betrieb dieser AI Agents schaffen.
Um den Lernprozess von AI Agents zu unterstützen, insbesondere in den frühen Phasen in einer neuen Umgebung, kann gelegentliches menschliches Feedback hilfreich sein. Dies ermöglicht es dem AI Agent, seine Leistung mit dem erwarteten Standard zu vergleichen und sich entsprechend anzupassen. Diese Form des Feedbacks verbessert die Anpassungsfähigkeit des Agenten an die Präferenzen des Benutzers.5
Darüber hinaus ist es eine bewährte Praxis, die Zustimmung eines Menschen einzuholen, bevor ein AI Agent äußerst schwerwiegende Maßnahmen ergreift. Beispielsweise sollten Aktionen wie das Versenden von Massen-E-Mails oder der Handel mit Finanzprodukten eine menschliche Genehmigung erfordern.7 Für solche Bereiche mit hohem Risiko wird ein gewisses Maß an menschlicher Überwachung empfohlen.
Wir haben 2.000 Unternehmen zu ihren KI-Initiativen befragt, um herauszufinden, was funktioniert, was nicht und wie Sie vorankommen können.
IBM® Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Entdecken Sie die Optionen zu Sprache, Code, Zeitreihen und Guardrails.
Greifen Sie auf unseren vollständigen Katalog mit über 100 Online-Kursen zu, indem Sie noch heute ein Abonnement für Einzel- oder Mehrbenutzer erwerben, mit dem Sie Ihre Fähigkeiten in einer Reihe unserer Produkte zu einem günstigen Preis erweitern können.
Das Programm, das von führenden IBM Experten geleitet wird, soll Führungskräften dabei helfen, das nötige Wissen zu erwerben, um die Prioritäten für KI-Investitionen zu setzen, die zu mehr Wachstum führen.
1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu und Gao Huang, „Expel: Llm agents are experiential learners“, Protokolle der AAAI Conference on Artificial Intelligence, Band 38, Nr. 17, S. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936
2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos und David G. Robinson, „Practices for Governing Agentic AI Systems“, OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3
3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, „The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey“, arXiv preprint, 2024, https://arxiv.org/abs/2404.11584
4 Gautier Dagan, Frank Keller und Alex Lascarides, „Dynamic Planning with a LLM“, arXiv preprint, 2023. https://arxiv.org/abs/2308.06391
5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu und Dongkuan Xu, „ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models“, arXiv preprint, 2023, https://arxiv.org/abs/2305.18323
6 Sebastian Schmid, Daniel Schraudner und Andreas Harth, „Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation“. IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, S. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196
7 Veselka Sasheva Petrova-Dimitrova, „Classifications of intelligence agents and their applications“, Fundamental Sciences and Applications, Band 28, Nr. 1, 2022.
8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei und Jirong Wen, „A survey on large language model based autonomous agents“, Frontiers of Computer Science, Band 18, Nr. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1
9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, „Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information“, Cybernetics and Information Technologies, Band 12, Nr. 3, S.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.
10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, „Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data“, International Journal of Critical Infrastructures, Band 19, Nr. 2, S. 124-139, 2023, https://arxiv.org/abs/2106.07114.
11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu und Deheng Ye. „More agents is all you need“. arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.
12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang und Michael S. Bernstein, „Generative agents: Interactive simulacra of human behavior“, Protokolle der 36th Annual ACM Symposium on User Interface software and Technology, S. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.
13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim und Markus Anderljung, „Visibility into AI Agents“, The 2024 ACM Conference on Fairness, Accountability, and Transparency, S. 958-973, 2024, https://arxiv.org/abs/2401.13138.
14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca und Saravan Rajmohan, „Exploring LLM-based Agents for Root Cause Analysis“, arXiv preprint, 2024, https://arxiv.org/abs/2403.04123.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com