Agents de construction : problèmes connus
Passez en revue les problèmes connus et les limitations qui affectent la création d'agents, la configuration et la sélection de modèles.
En bref
Sortir |
Solution de contournement disponible |
|---|---|
Oui |
|
Oui |
|
Non |
|
Non |
|
Non |
|
Oui |
|
Oui |
|
Oui |
|
Oui |
|
Oui |
|
Oui |
|
Non |
|
Oui |
Échec de l'actualisation du jeton
Si le jeton d'actualisation de l'application expire, une erreur s'affiche lors de l'exécution de l'outil.
Solution de contournement : reconnectez l'application à partir de l'onglet Informations d'identification de la page Paramètres de connexion.
Transfert incohérent entre collaborateurs multi-agents
Dans une configuration multi-agents, l'agent collaborateur ne rend pas le contrôle à l'agent superviseur une fois la tâche terminée.
Solution de contournement : mettez à jour la configuration de l'agent collaborateur :
Ouvrez l'agent collaborateur dans l' Agent Builder
Allez dans Comportements > Instructions
Ajouter une instruction claire précisant que l'agent doit transférer le contrôle à l'agent superviseur une fois la tâche terminée
Remarque : cette solution de contournement ne s'applique pas lorsque l'agent collaborateur est un agent externe.
Seuil d'évaluation dans les rapports métriques
Le seuil par défaut n'est pas appliqué dans le rapport sur les indicateurs d'évaluation. Par conséquent, la qualité de la réponse peut s'afficher comme « Réussite » même si la valeur est inférieure au seuil attendu.
Pour plus d'informations, consultez la section « Tester votre agent provisoire ».
Durée de l'évaluation de l'agent
Les évaluations peuvent parfois prendre jusqu'à dix minutes. Pendant ce temps, le tableau d'évaluation reste désactivé afin d'éviter tout conflit de modifications. Une fois l'évaluation terminée, le tableau est réactivé et les résultats peuvent être consultés.
Voir « Évaluation d'un agent en formation ».
Agents partenaires d'achat
L'agent Maven AGI n'est actuellement pas disponible à l'achat dans le catalogue. Cet agent nécessite des informations supplémentaires pour sa configuration, et le processus d'achat ne prend pas encore en charge la collecte de ces informations.
Limitation du modèle Llama avec plusieurs appels d'outils
Lorsque vous lancez plusieurs outils d'agent collaborateur dans une seule expression, les appels d'outils attendus peuvent ne pas s'exécuter en raison des limitations du modèle Llama.
Solution de contournement : divisez les requêtes complexes en plusieurs expressions distinctes, chacune se concentrant sur un seul outil ou une seule action.
Réponses répétitives avec l' Llama-3-3-70b-instruct
Le modèle présente des schémas répétitifs dans les longues conversations, générant la même réponse indépendamment des changements d'entrée.
Solution de contournement : utilisez GPT‑OSS 120B‑OpenAI model (via Groq) ou GPT‑OSS 120B‑OpenAI model (via Bedrock) à la place, ou intégrez des modèles externes à l'aide du kit de développement IA (ADK).
Llama-3-2-70B-instruct limite de longueur du contexte
La capacité du modèle à conserver l'historique des conversations passées diminue en fonction de la mémoire disponible, ce qui a un impact sur la longueur maximale du contexte pris en charge.
Solution de contournement : pour les conversations nécessitant un contexte étendu, utilisez des modèles avec des fenêtres contextuelles plus larges ou mettez en œuvre des stratégies de synthèse des conversations.
Hallucination LLM et routage incorrect des agents
Lorsqu'un LLM rencontre une expression qui dépasse ses capacités, il peut halluciner et acheminer incorrectement la requête vers un agent collaborateur sans rapport avec celle-ci.
Solution de contournement : les modèles tels que Llama et Granite conviennent à l'expérimentation, mais ont tendance à produire davantage d'hallucinations dans des scénarios complexes. Pour une utilisation en production, utilisez des modèles payants pour une meilleure fiabilité et une réduction des hallucinations.
Appels répétés à l'outil avec l' Llama-3-405b-instruct
Lorsque vous utilisez le Llama-3-405b-instruct modèle, les agents de type « ReAct » appellent le même outil plusieurs fois, même après avoir reçu une réponse positive.
Solution de contournement : utilisez d'autres modèles, tels que GPT‑OSS 120B‑OpenAI model (via Groq) ou, GPT‑OSS 120B‑OpenAI model (via Bedrock) qui présentent ce comportement moins fréquemment.
Échecs d'invocation de l'outil modèle Gemini
Les modèles Gemini (gemini-2.0-flash et gemini-2.5-pro) échouent parfois lors du démarrage d'un outil, renvoyant une UNEXPECTED_TOOL_CALL erreur.
Solution de contournement : réessayez la requête. Il s'agit d'un problème temporaire actuellement à l'étude.
Limites du modèle Gemini
Les limitations suivantes s'appliquent aux modèles Gemini :
L'exécution d'outils dans le chat n'est pas prise en charge sur les
gemini-2.5-promodèlesgemini-2.0-flashetLe
gemini-2.0-flashmodèle ne prend pas en charge l'utilisation de type React
Solution de contournement : utilisez des modèles alternatifs pour les interactions basées sur des outils et les implémentations de type React.
Le chat affiche une erreur avec le modèle GPT-OSS
Si vous utilisez le modèle d' 120B‑OpenAI GPT-OSS (via Groq), une erreur s'affiche dans le chat et les utilisateurs ne sont pas invités à saisir des données.
Solution de contournement : ajoutez des instructions pour l'agent dans la section Comportement afin qu'il invite les utilisateurs à fournir les informations manquantes. Par exemple, « Si les données requises sont manquantes, ne faites pas de suppositions. » Demandez le minimum de champs manquants dans une seule question et attendez
Pour plus d'informations, consultez Utilisation du modèle d' 120B s GPT-OSS avec Groq - Considérations particulières et Ajout d'instructions.