Agenti di costruzione: Problemi noti

Esamina i problemi noti e le limitazioni che influiscono sulla creazione degli agenti, sulla configurazione e sulla selezione dei modelli.

In sintesi

Preleva

Soluzione alternativa disponibile

Errore di aggiornamento token

Trasferimento incoerente tra collaboratori multi-agente

Soglia di valutazione nei report sulle metriche

No

Durata della valutazione dell'agente

No

Agenti partner per gli acquisti

No

Limitazione del modello Llama con chiamate multiple agli strumenti

Risposte ripetitive con Llama-3-3-70b-instruct

Llama-3-2-70B-instruct limite di lunghezza del contesto

Allucinazione LLM e instradamento errato dell'agente

Chiamate ripetute allo strumento con Llama-3-405b-instruct

Errori di invocazione dello strumento modello Gemini

Limiti del modello Gemini

No

La chat mostra un errore con il modello GPT-OSS

Errore di aggiornamento token

Se il token di aggiornamento dell'applicazione scade, viene visualizzato un errore durante l'esecuzione dello strumento.

Soluzione alternativa: ricollegare l'app dalla scheda Credenziali nella pagina Impostazioni connessione.

Trasferimento incoerente tra collaboratori multi-agente

In una configurazione multi-agente, l'agente collaboratore non restituisce il controllo all'agente supervisore dopo il completamento dell'attività.

Soluzione alternativa: aggiornare la configurazione dell'agente collaboratore:

  1. Aprire l'agente collaboratore nell' Agent Builder

  2. Vai a Comportamenti > Istruzioni

  3. Aggiungere una chiara istruzione che specifichi che l'agente deve trasferire nuovamente il controllo all'agente supervisore dopo il completamento dell'attività

Nota: questa soluzione alternativa non è applicabile quando l'agente collaboratore è un agente esterno.

Soglia di valutazione nei report metrici

La soglia predefinita non viene applicata nel report delle metriche di valutazione. Di conseguenza, la qualità della risposta può risultare come _Pass_ anche quando il valore è inferiore alla soglia prevista.

Per ulteriori informazioni, consulta la sezione "Testare la bozza dell'agente ".

Durata della valutazione dell'agente

Le valutazioni possono richiedere fino a dieci minuti per essere completate. Durante questo periodo, la tabella di valutazione rimane disabilitata per evitare modifiche contrastanti. Una volta completata la valutazione, la tabella viene riattivata e i risultati sono disponibili per la revisione.

Vedi "Valutazione di un agente in fase di formazione ".

Agenti partner per gli acquisti

L'agente Maven AGI non è attualmente disponibile per l'acquisto dal catalogo. Questo agente richiede ulteriori dettagli per la configurazione dell'agente e il flusso di acquisto non supporta ancora la raccolta di tali informazioni.

Limitazione del modello Llama con chiamate multiple agli strumenti

Quando si avviano più strumenti di collaborazione in un unico comando vocale, le chiamate agli strumenti previste potrebbero non essere eseguite a causa delle limitazioni del modello Llama.

Soluzione alternativa: suddividere le richieste complesse in espressioni separate, ciascuna incentrata su un singolo strumento o azione.

Risposte ripetitive con Llama-3-3-70b-instruct

Il modello mostra schemi ripetitivi nelle conversazioni lunghe, generando la stessa risposta indipendentemente dai cambiamenti nell'input.

Soluzione alternativa: utilizzare GPT‑OSS 120B‑OpenAI model (via Groq) o GPT‑OSS 120B‑OpenAI model (via Bedrock) in alternativa, oppure integrare modelli esterni tramite l'AI Development Kit (ADK).

Llama-3-2-70B-instruct limite di lunghezza del contesto

La capacità del modello di conservare la cronologia delle conversazioni passate diminuisce in base alla memoria disponibile, influendo sulla lunghezza massima del contesto supportato.

Soluzione alternativa: per le conversazioni che richiedono un contesto ampio, utilizzare modelli con finestre di contesto più grandi o implementare strategie di sintesi delle conversazioni.

Allucinazione LLM e instradamento errato dell'agente

Quando un LLM incontra un'espressione che esula dalle sue capacità, può generare allucinazioni e indirizzare erroneamente la richiesta a un agente collaboratore non correlato.

Soluzione alternativa: modelli come Llama e Granite sono adatti alla sperimentazione, ma tendono a generare più allucinazioni in scenari complessi. Per l'uso in produzione, utilizzare modelli a pagamento per una maggiore affidabilità e una riduzione delle allucinazioni.

Chiamate ripetute allo strumento con Llama-3-405b-instruct

Quando si utilizza il Llama-3-405b-instruct modello, gli agenti di tipo " ReAct " chiamano lo stesso strumento più volte anche dopo aver ricevuto una risposta positiva.

Soluzione alternativa: utilizzare modelli alternativi come GPT‑OSS 120B‑OpenAI model (via Groq) o GPT‑OSS 120B‑OpenAI model (via Bedrock) che presentano questo comportamento con minore frequenza.

Errori di invocazione dello strumento modello Gemini

I modelli Gemini (gemini-2.0-flash e gemini-2.5-pro) occasionalmente falliscono all'avvio di uno strumento, restituendo un UNEXPECTED_TOOL_CALL errore.

Soluzione alternativa: riprovare a inviare la richiesta. Si tratta di un problema temporaneo attualmente oggetto di indagine.

Limiti del modello Gemini

Le seguenti limitazioni si applicano ai modelli Gemini:

  • L'esecuzione di strumenti nella chat non è supportata sui gemini-2.0-flash modelli gemini-2.5-pro e

  • Il gemini-2.0-flash modello non supporta l'utilizzo in stile React

Soluzione alternativa: utilizzare modelli alternativi per le interazioni basate su strumenti e implementazioni in stile React.

La chat mostra un errore con il modello GPT-OSS

Se si utilizza il modello GPT-OSS 120B‑OpenAI (tramite Groq), nella chat viene visualizzato un errore e agli utenti non viene richiesto di inserire alcun input.

Soluzione alternativa: aggiungere istruzioni per l'agente nella sezione Comportamento che indichino all'agente di avvisare gli utenti quando mancano gli input richiesti. Ad esempio, "Se mancano gli input richiesti, non fare ipotesi. Chiedi i campi minimi mancanti in una sola domanda e aspetta

Per ulteriori informazioni, consultare Utilizzo del modello GPT-OSS 120B con Groq - Considerazioni speciali e Aggiunta di istruzioni.