Bauagenten: Bekannte Probleme
Überprüfen Sie bekannte Probleme und Einschränkungen, die sich auf die Erstellung und Konfiguration von Agenten sowie die Modellauswahl auswirken.
Auf einen Blick
Ausgeben |
Workaround verfügbar |
|---|---|
Ja |
|
Inkonsistente Übertragung zwischen Multi-Agent-Kollaborateuren |
Ja |
Nein |
|
Nein |
|
Nein |
|
Einschränkung des Lama-Modells bei mehreren Werkzeugaufrufen |
Ja |
Ja |
|
Ja |
|
Ja |
|
Ja |
|
Ja |
|
Nein |
|
Ja |
Fehler beim Aktualisieren des Tokens
Wenn das Aktualisierungstoken der Anwendung abläuft, wird beim Ausführen des Tools eine Fehlermeldung angezeigt.
Workaround: Stellen Sie die Verbindung zur App über die Registerkarte „Anmeldedaten“ auf der Seite „Verbindungseinstellungen“ erneut her.
Inkonsistente Übertragung zwischen Multi-Agent-Kollaborateuren
In einer Multi-Agenten-Konfiguration gibt der kollaborierende Agent nach Abschluss der Aufgabe die Kontrolle nicht an den übergeordneten Agenten zurück.
Workaround: Aktualisieren Sie die Konfiguration des Collaborator-Agenten:
Öffnen Sie den Collaborator Agent im Agent Builder
Gehen Sie zu „Verhalten“ > „Anweisungen“
Fügen Sie eine klare Anweisung hinzu, dass der Agent nach Abschluss der Aufgabe die Kontrolle wieder an den Vorgesetzten zurückgeben muss
Hinweis: Diese Problemumgehung gilt nicht, wenn es sich bei dem Mitarbeiter-Agenten um einen externen Agenten handelt.
Bewertungsschwelle in Metrikberichten
Der Standardschwellenwert wird im Bericht zu den Bewertungsmetriken nicht angewendet. Infolgedessen kann die Antwortqualität als „Bestanden“ angezeigt werden, selbst wenn der Wert unter dem erwarteten Schwellenwert liegt.
Weitere Informationen finden Sie unter „Testen Ihres Entwurfsagenten “.
Dauer der Agentenbewertung
Die Bewertungen dauern manchmal bis zu zehn Minuten. Während dieser Zeit bleibt die Bewertungstabelle deaktiviert, um widersprüchliche Änderungen zu verhindern. Nach Abschluss der Auswertung wird die Tabelle wieder aktiviert und die Ergebnisse können überprüft werden.
Siehe „Bewertung eines Draft-Spielers “.
Einkaufspartner
Der Maven AGI-Agent ist derzeit nicht im Katalog erhältlich. Dieser Agent erfordert zusätzliche Angaben für die Einrichtung, und der Kaufvorgang unterstützt die Erfassung dieser Informationen noch nicht.
Einschränkung des Lama-Modells bei mehreren Werkzeugaufrufen
Wenn Sie mehrere Kollaborations-Agent-Tools in einer einzigen Äußerung initiieren, werden die erwarteten Tool-Aufrufe aufgrund von Einschränkungen des Llama-Modells möglicherweise nicht ausgeführt.
Workaround: Teilen Sie komplexe Anfragen in einzelne Äußerungen auf, die sich jeweils auf ein einzelnes Tool oder eine einzelne Aktion konzentrieren.
Wiederholte Antworten mit „ Llama-3-3-70b-instruct “
Das Modell zeigt in langen Gesprächen repetitive Muster und generiert unabhängig von Änderungen der Eingaben immer dieselbe Antwort.
Workaround: Verwenden Sie alternativ GPT‑OSS 120B‑OpenAI model (via Groq) GPT‑OSS 120B‑OpenAI model (via Bedrock) oder oder integrieren Sie externe Modelle mithilfe des AI Development Kit (ADK).
Llama-3-2-70B-instruct Kontextlängenbeschränkung
Die Fähigkeit des Modells, den Verlauf vergangener Unterhaltungen zu speichern, nimmt mit dem verfügbaren Speicherplatz ab, was sich auf die maximal unterstützte Kontextlänge auswirkt.
Workaround: Verwenden Sie für Gespräche, die einen umfangreichen Kontext erfordern, Modelle mit größeren Kontextfenstern oder implementieren Sie Strategien zur Zusammenfassung von Gesprächen.
LLM-Halluzination und fehlerhafte Agentenweiterleitung
Wenn ein LLM auf eine Äußerung stößt, die außerhalb seiner Fähigkeiten liegt, kann es zu Fehlinterpretationen kommen und die Anfrage fälschlicherweise an einen nicht relevanten Kooperationspartner weiterleiten.
Workaround: Modelle wie Llama und Granite eignen sich für Experimente, neigen jedoch dazu, in komplexen Szenarien vermehrt Halluzinationen zu produzieren. Für den produktiven Einsatz sollten Sie kostenpflichtige Modelle verwenden, um eine höhere Zuverlässigkeit und weniger Halluzinationen zu erzielen.
Wiederholte Tool-Aufrufe mit „ Llama-3-405b-instruct “
Wenn Sie das Llama-3-405b-instruct Modell „ ReAct “ verwenden, rufen Agenten desselben Typs dasselbe Tool auch nach Erhalt einer erfolgreichen Antwort mehrfach auf.
Abhilfe: Verwenden Sie alternative Modelle wie GPT‑OSS 120B‑OpenAI model (via Groq) oder, GPT‑OSS 120B‑OpenAI model (via Bedrock) bei denen dieses Verhalten seltener auftritt.
Fehler beim Aufruf des Gemini-Modelltools
Gemini-Modelle (gemini-2.0-flash und gemini-2.5-pro) schlagen gelegentlich beim Starten eines Tools fehl und geben einen UNEXPECTED_TOOL_CALL Fehler zurück.
Workaround: Wiederholen Sie die Anfrage. Dies ist ein vorübergehendes Problem, das derzeit untersucht wird.
Einschränkungen des Gemini-Modells
Für Gemini-Modelle gelten die folgenden Einschränkungen:
Die Ausführung von Tools im Chat wird bei den
gemini-2.0-flashModellengemini-2.5-pround nicht unterstütztDas
gemini-2.0-flashModell unterstützt keine Verwendung im React-Stil
Workaround: Verwenden Sie alternative Modelle für werkzeugbasierte Interaktionen und Implementierungen im React-Stil.
Der Chat zeigt einen Fehler mit dem GPT-OSS-Modell an
Wenn Sie das GPT-OSS-Modell „ 120B‑OpenAI “ (über Groq) verwenden, wird im Chat eine Fehlermeldung angezeigt, und die Benutzer werden nicht zur Eingabe aufgefordert.
Workaround: Fügen Sie im Abschnitt „Verhalten“ Anweisungen für den Agenten hinzu, die den Agenten anweisen, Benutzer aufzufordern, fehlende erforderliche Eingaben zu ergänzen. Zum Beispiel: „Wenn erforderliche Eingaben fehlen, spekulieren Sie nicht. Fragen Sie in einer einzigen Frage nach den minimal fehlenden Feldern und warten Sie
Weitere Informationen finden Sie unter „Verwendung des GPT-OSS-Modells „ 120B “ mit Groq – Besondere Überlegungen“ und „Hinzufügen von Anweisungen “.