Das ReAct-Framework ist von der Art und Weise inspiriert, wie Menschen bei der schrittweisen Planung und Ausführung komplexer Aufgaben intuitiv natürliche Sprache verwenden können – oft durch unseren eigenen inneren Monolog.
Statt vorgefertigter Workflows umzusetzen, verlassen sich ReAct-Agenten bei der Anpassung ihres Vorgehens auf die reasoning-Fähigkeiten ihres LLM, die es ihnen ermöglichen, auf neue Informationen oder die Ergebnisse vorheriger Schritte zu reagieren.
Stellen Sie sich vor, Sie packen für eine kurze Reise. Sie könnten damit beginnen, wichtige Überlegungen zu identifizieren („Wie wird das Wetter sein, während ich dort bin?“) und dann aktiv externe Quellen zu konsultieren („Ich überprüfe die lokale Wettervorhersage“).
Anhand dieser neuen Informationen („Es wird kalt sein“), bestimmen Sie Ihre nächste Überlegung („Welche warmen Kleidungsstücke habe ich?“) und Ihre nächste Aktion („ Ich sehe in meinen Schrank“). Dabei treffen Sie möglicherweise auf ein unerwartetes Hindernis („Alle meine warmen Kleidungsstücke sind eingelagert“) und passen Ihren nächsten Schritt entsprechend an („Welche Kleidungsstücke kann ich übereinander tragen? “).
In ähnlicher Weise verwendet das ReAct-Framework Prompt Engineering, um die Aktivität eines KI-Agenten in einem formalen Muster abwechselnder Gedanken, Handlungen und Beobachtungen zu strukturieren:
Vordefinierte Aktionen ermöglichen es dem Modell, Tools zu verwenden, Programmierschnittstellen (API) -Aufrufe durchzuführen und weitere Informationen aus externen Quellen (z. B. Suchmaschinen) oder Wissensdatenbanken (z. B. einem internen Docstore) zu sammeln.
Nachdem das Modell eine Maßnahme ergriffen hat, bewertet es den Fortschritt neu und nutzt diese Beobachtung, um entweder eine endgültige Antwort zu liefern oder den nächsten Gedanken zu entwickeln. Bei der Beobachtung könnten im Idealfall auch frühere Informationen berücksichtigt werden, sei es von früheren Informationen im Standardkontextfenster des Modells oder von einer externen Speicherkomponente.
Da die Leistung eines ReAct-Agenten stark von der Fähigkeit seines zentralen LLM abhängt, sich „verbal“ durch komplexe Aufgaben zu denken, haben ReAct-Agenten einen großen Vorteil von hochleistungsfähigen Modellen mit fortschrittlicher Argumentation und der Fähigkeit, Anweisungen zu befolgen.
Um Kosten und Latenzzeiten zu minimieren, kann sich ein ReAct-Framework mit mehreren Agents in erster Linie auf ein größeres, leistungsfähigeres Modell stützen, das als zentraler Agent dient, dessen Argumentationsprozess oder Aktionen das Delegieren von Unteraufgaben an weitere Agenten umfassen können, die mit kleineren, effizienteren Modellen erstellt wurden.