Bauagenten: Bekannte Probleme

Überprüfen Sie bekannte Probleme und Einschränkungen, die sich auf die Erstellung und Konfiguration von Agenten sowie die Modellauswahl auswirken.

Auf einen Blick

Ausgeben

Workaround verfügbar

Fehler beim Aktualisieren des Tokens

Ja

Inkonsistente Übertragung zwischen Multi-Agent-Kollaborateuren

Ja

Bewertungsschwelle in Metrikberichten

Nein

Dauer der Agentenbewertung

Nein

Einkaufspartner

Nein

Einschränkung des Lama-Modells bei mehreren Werkzeugaufrufen

Ja

Wiederholte Antworten mit „ Llama-3-3-70b-instruct “

Ja

Llama-3-2-70B-instruct Kontextlängenbeschränkung

Ja

LLM-Halluzination und fehlerhafte Agentenweiterleitung

Ja

Wiederholte Tool-Aufrufe mit „ Llama-3-405b-instruct “

Ja

Fehler beim Aufruf des Gemini-Modelltools

Ja

Einschränkungen des Gemini-Modells

Nein

Der Chat zeigt einen Fehler mit dem GPT-OSS-Modell an.

Ja

Fehler beim Aktualisieren des Tokens

Wenn das Aktualisierungstoken der Anwendung abläuft, wird beim Ausführen des Tools eine Fehlermeldung angezeigt.

Workaround: Stellen Sie die Verbindung zur App über die Registerkarte „Anmeldedaten“ auf der Seite „Verbindungseinstellungen“ erneut her.

Inkonsistente Übertragung zwischen Multi-Agent-Kollaborateuren

In einer Multi-Agenten-Konfiguration gibt der kollaborierende Agent nach Abschluss der Aufgabe die Kontrolle nicht an den übergeordneten Agenten zurück.

Workaround: Aktualisieren Sie die Konfiguration des Collaborator-Agenten:

  1. Öffnen Sie den Collaborator Agent im Agent Builder

  2. Gehen Sie zu „Verhalten“ > „Anweisungen“

  3. Fügen Sie eine klare Anweisung hinzu, dass der Agent nach Abschluss der Aufgabe die Kontrolle wieder an den Vorgesetzten zurückgeben muss

Hinweis: Diese Problemumgehung gilt nicht, wenn es sich bei dem Mitarbeiter-Agenten um einen externen Agenten handelt.

Bewertungsschwelle in Metrikberichten

Der Standardschwellenwert wird im Bericht zu den Bewertungsmetriken nicht angewendet. Infolgedessen kann die Antwortqualität als „Bestanden“ angezeigt werden, selbst wenn der Wert unter dem erwarteten Schwellenwert liegt.

Weitere Informationen finden Sie unter „Testen Ihres Entwurfsagenten “.

Dauer der Agentenbewertung

Die Bewertungen dauern manchmal bis zu zehn Minuten. Während dieser Zeit bleibt die Bewertungstabelle deaktiviert, um widersprüchliche Änderungen zu verhindern. Nach Abschluss der Auswertung wird die Tabelle wieder aktiviert und die Ergebnisse können überprüft werden.

Siehe „Bewertung eines Draft-Spielers “.

Einkaufspartner

Der Maven AGI-Agent ist derzeit nicht im Katalog erhältlich. Dieser Agent erfordert zusätzliche Angaben für die Einrichtung, und der Kaufvorgang unterstützt die Erfassung dieser Informationen noch nicht.

Einschränkung des Lama-Modells bei mehreren Werkzeugaufrufen

Wenn Sie mehrere Kollaborations-Agent-Tools in einer einzigen Äußerung initiieren, werden die erwarteten Tool-Aufrufe aufgrund von Einschränkungen des Llama-Modells möglicherweise nicht ausgeführt.

Workaround: Teilen Sie komplexe Anfragen in einzelne Äußerungen auf, die sich jeweils auf ein einzelnes Tool oder eine einzelne Aktion konzentrieren.

Wiederholte Antworten mit „ Llama-3-3-70b-instruct “

Das Modell zeigt in langen Gesprächen repetitive Muster und generiert unabhängig von Änderungen der Eingaben immer dieselbe Antwort.

Workaround: Verwenden Sie alternativ GPT‑OSS 120B‑OpenAI model (via Groq) GPT‑OSS 120B‑OpenAI model (via Bedrock) oder oder integrieren Sie externe Modelle mithilfe des AI Development Kit (ADK).

Llama-3-2-70B-instruct Kontextlängenbeschränkung

Die Fähigkeit des Modells, den Verlauf vergangener Unterhaltungen zu speichern, nimmt mit dem verfügbaren Speicherplatz ab, was sich auf die maximal unterstützte Kontextlänge auswirkt.

Workaround: Verwenden Sie für Gespräche, die einen umfangreichen Kontext erfordern, Modelle mit größeren Kontextfenstern oder implementieren Sie Strategien zur Zusammenfassung von Gesprächen.

LLM-Halluzination und fehlerhafte Agentenweiterleitung

Wenn ein LLM auf eine Äußerung stößt, die außerhalb seiner Fähigkeiten liegt, kann es zu Fehlinterpretationen kommen und die Anfrage fälschlicherweise an einen nicht relevanten Kooperationspartner weiterleiten.

Workaround: Modelle wie Llama und Granite eignen sich für Experimente, neigen jedoch dazu, in komplexen Szenarien vermehrt Halluzinationen zu produzieren. Für den produktiven Einsatz sollten Sie kostenpflichtige Modelle verwenden, um eine höhere Zuverlässigkeit und weniger Halluzinationen zu erzielen.

Wiederholte Tool-Aufrufe mit „ Llama-3-405b-instruct “

Wenn Sie das Llama-3-405b-instruct Modell „ ReAct “ verwenden, rufen Agenten desselben Typs dasselbe Tool auch nach Erhalt einer erfolgreichen Antwort mehrfach auf.

Abhilfe: Verwenden Sie alternative Modelle wie GPT‑OSS 120B‑OpenAI model (via Groq) oder, GPT‑OSS 120B‑OpenAI model (via Bedrock) bei denen dieses Verhalten seltener auftritt.

Fehler beim Aufruf des Gemini-Modelltools

Gemini-Modelle (gemini-2.0-flash und gemini-2.5-pro) schlagen gelegentlich beim Starten eines Tools fehl und geben einen UNEXPECTED_TOOL_CALL Fehler zurück.

Workaround: Wiederholen Sie die Anfrage. Dies ist ein vorübergehendes Problem, das derzeit untersucht wird.

Einschränkungen des Gemini-Modells

Für Gemini-Modelle gelten die folgenden Einschränkungen:

  • Die Ausführung von Tools im Chat wird bei den gemini-2.0-flash Modellen gemini-2.5-pro und nicht unterstützt

  • Das gemini-2.0-flash Modell unterstützt keine Verwendung im React-Stil

Workaround: Verwenden Sie alternative Modelle für werkzeugbasierte Interaktionen und Implementierungen im React-Stil.

Der Chat zeigt einen Fehler mit dem GPT-OSS-Modell an

Wenn Sie das GPT-OSS-Modell „ 120B‑OpenAI “ (über Groq) verwenden, wird im Chat eine Fehlermeldung angezeigt, und die Benutzer werden nicht zur Eingabe aufgefordert.

Workaround: Fügen Sie im Abschnitt „Verhalten“ Anweisungen für den Agenten hinzu, die den Agenten anweisen, Benutzer aufzufordern, fehlende erforderliche Eingaben zu ergänzen. Zum Beispiel: „Wenn erforderliche Eingaben fehlen, spekulieren Sie nicht. Fragen Sie in einer einzigen Frage nach den minimal fehlenden Feldern und warten Sie

Weitere Informationen finden Sie unter „Verwendung des GPT-OSS-Modells „ 120B “ mit Groq – Besondere Überlegungen“ und „Hinzufügen von Anweisungen “.