Agents de construction : problèmes connus

Passez en revue les problèmes connus et les limitations qui affectent la création d'agents, la configuration et la sélection de modèles.

En bref

Sortir

Solution de contournement disponible

Échec de l'actualisation du jeton

Oui

Transfert incohérent entre collaborateurs multi-agents

Oui

Seuil d'évaluation dans les rapports métriques

Non

Durée de l'évaluation de l'agent

Non

Agents partenaires d'achat

Non

Limitation du modèle Llama avec plusieurs appels d'outils

Oui

Réponses répétitives avec Llama-3-3-70b-instruct

Oui

Llama-3-2-70B-instruct limite de longueur du contexte

Oui

Hallucination LLM et routage incorrect des agents

Oui

Appels répétés à l'outil avec l' Llama-3-405b-instruct

Oui

Échecs d'invocation de l'outil modèle Gemini

Oui

Limites du modèle Gemini

Non

Le chat affiche une erreur avec le modèle GPT-OSS.

Oui

Échec de l'actualisation du jeton

Si le jeton d'actualisation de l'application expire, une erreur s'affiche lors de l'exécution de l'outil.

Solution de contournement : reconnectez l'application à partir de l'onglet Informations d'identification de la page Paramètres de connexion.

Transfert incohérent entre collaborateurs multi-agents

Dans une configuration multi-agents, l'agent collaborateur ne rend pas le contrôle à l'agent superviseur une fois la tâche terminée.

Solution de contournement : mettez à jour la configuration de l'agent collaborateur :

  1. Ouvrez l'agent collaborateur dans l' Agent Builder

  2. Allez dans Comportements > Instructions

  3. Ajouter une instruction claire précisant que l'agent doit transférer le contrôle à l'agent superviseur une fois la tâche terminée

Remarque : cette solution de contournement ne s'applique pas lorsque l'agent collaborateur est un agent externe.

Seuil d'évaluation dans les rapports métriques

Le seuil par défaut n'est pas appliqué dans le rapport sur les indicateurs d'évaluation. Par conséquent, la qualité de la réponse peut s'afficher comme « Réussite » même si la valeur est inférieure au seuil attendu.

Pour plus d'informations, consultez la section « Tester votre agent provisoire ».

Durée de l'évaluation de l'agent

Les évaluations peuvent parfois prendre jusqu'à dix minutes. Pendant ce temps, le tableau d'évaluation reste désactivé afin d'éviter tout conflit de modifications. Une fois l'évaluation terminée, le tableau est réactivé et les résultats peuvent être consultés.

Voir « Évaluation d'un agent en formation ».

Agents partenaires d'achat

L'agent Maven AGI n'est actuellement pas disponible à l'achat dans le catalogue. Cet agent nécessite des informations supplémentaires pour sa configuration, et le processus d'achat ne prend pas encore en charge la collecte de ces informations.

Limitation du modèle Llama avec plusieurs appels d'outils

Lorsque vous lancez plusieurs outils d'agent collaborateur dans une seule expression, les appels d'outils attendus peuvent ne pas s'exécuter en raison des limitations du modèle Llama.

Solution de contournement : divisez les requêtes complexes en plusieurs expressions distinctes, chacune se concentrant sur un seul outil ou une seule action.

Réponses répétitives avec l' Llama-3-3-70b-instruct

Le modèle présente des schémas répétitifs dans les longues conversations, générant la même réponse indépendamment des changements d'entrée.

Solution de contournement : utilisez GPT‑OSS 120B‑OpenAI model (via Groq) ou GPT‑OSS 120B‑OpenAI model (via Bedrock) à la place, ou intégrez des modèles externes à l'aide du kit de développement IA (ADK).

Llama-3-2-70B-instruct limite de longueur du contexte

La capacité du modèle à conserver l'historique des conversations passées diminue en fonction de la mémoire disponible, ce qui a un impact sur la longueur maximale du contexte pris en charge.

Solution de contournement : pour les conversations nécessitant un contexte étendu, utilisez des modèles avec des fenêtres contextuelles plus larges ou mettez en œuvre des stratégies de synthèse des conversations.

Hallucination LLM et routage incorrect des agents

Lorsqu'un LLM rencontre une expression qui dépasse ses capacités, il peut halluciner et acheminer incorrectement la requête vers un agent collaborateur sans rapport avec celle-ci.

Solution de contournement : les modèles tels que Llama et Granite conviennent à l'expérimentation, mais ont tendance à produire davantage d'hallucinations dans des scénarios complexes. Pour une utilisation en production, utilisez des modèles payants pour une meilleure fiabilité et une réduction des hallucinations.

Appels répétés à l'outil avec l' Llama-3-405b-instruct

Lorsque vous utilisez le Llama-3-405b-instruct modèle, les agents de type « ReAct » appellent le même outil plusieurs fois, même après avoir reçu une réponse positive.

Solution de contournement : utilisez d'autres modèles, tels que GPT‑OSS 120B‑OpenAI model (via Groq) ou, GPT‑OSS 120B‑OpenAI model (via Bedrock) qui présentent ce comportement moins fréquemment.

Échecs d'invocation de l'outil modèle Gemini

Les modèles Gemini (gemini-2.0-flash et gemini-2.5-pro) échouent parfois lors du démarrage d'un outil, renvoyant une UNEXPECTED_TOOL_CALL erreur.

Solution de contournement : réessayez la requête. Il s'agit d'un problème temporaire actuellement à l'étude.

Limites du modèle Gemini

Les limitations suivantes s'appliquent aux modèles Gemini :

  • L'exécution d'outils dans le chat n'est pas prise en charge sur les gemini-2.5-pro modèles gemini-2.0-flash et

  • Le gemini-2.0-flash modèle ne prend pas en charge l'utilisation de type React

Solution de contournement : utilisez des modèles alternatifs pour les interactions basées sur des outils et les implémentations de type React.

Le chat affiche une erreur avec le modèle GPT-OSS

Si vous utilisez le modèle d' 120B‑OpenAI GPT-OSS (via Groq), une erreur s'affiche dans le chat et les utilisateurs ne sont pas invités à saisir des données.

Solution de contournement : ajoutez des instructions pour l'agent dans la section Comportement afin qu'il invite les utilisateurs à fournir les informations manquantes. Par exemple, « Si les données requises sont manquantes, ne faites pas de suppositions. » Demandez le minimum de champs manquants dans une seule question et attendez

Pour plus d'informations, consultez Utilisation du modèle d' 120B s GPT-OSS avec Groq - Considérations particulières et Ajout d'instructions.