建筑代理商:已知问题
审查影响代理创建、配置和模型选择的已知问题与限制。
引言
发放 |
有可用的解决方法 |
|---|---|
是 |
|
是 |
|
False |
|
False |
|
False |
|
是 |
|
是 |
|
是 |
|
是 |
|
是 |
|
是 |
|
False |
|
是 |
令牌刷新失败
如果应用程序的刷新令牌过期,运行工具时会出现错误。
解决方法: 在连接设置页面的凭据选项卡中重新连接应用程序。
多智能体协作伙伴间传输不一致
在多智能体系统中,协作智能体在任务完成后不会将控制权交还给监督智能体。
解决方法: 更新协作者代理的配置:
在 Agent Builder 中打开协作者代理
前往行为 > 指令
添加明确说明,要求代理在任务完成后必须将控制权交还给主管代理
注意: 当协作者代理为外部代理时,此解决方法不适用。
指标报告中的评估阈值
默认阈值不应用于评估指标报告。 因此,即使答案质量低于预期阈值,系统仍可能显示为“通过”。
如需了解更多信息,请参阅“测试您的代理程序草案”。
特工评估周期
评估有时需要长达十分钟才能完成。 在此期间,评估表将保持禁用状态,以防止冲突更改。 评估完成后,该表格将重新启用,评估结果可供查阅。
请参阅 “评估代理草案 ”。
采购合作伙伴代理商
Maven AGI 代理目前无法从目录中购买。 该代理商需要额外的设置信息,而当前购买流程尚不支持收集这些信息。
骆马模型在多次工具调用时的局限性
当您在单次语音指令中同时启动多个协作者代理工具时,由于Llama模型的限制,预期调用的工具可能无法运行。
解决方法: 将复杂请求拆分为独立的语句,每个语句专注于单一工具或操作。
使用 Llama-3-3-70b-instruct 的重复响应
该模型在长对话中表现出重复模式,无论输入如何变化,都会生成相同的响应。
解决方法: 请改用 GPT‑OSS 120B‑OpenAI model (via Groq) 或 GPT‑OSS 120B‑OpenAI model (via Bedrock) ,或者使用 AI 开发工具包 (ADK) 集成外部模型。
Llama-3-2-70B-instruct 上下文长度限制
该模型的历史对话记录保留能力会随可用内存减少而降低,从而影响其支持的最大上下文长度。
解决方法: 对于需要大量上下文的对话,请使用具有更大上下文窗口的模型,或实施对话摘要策略。
LLM幻觉与错误的代理路由
当LLM遇到超出其工具能力范围的语句时,可能会产生幻觉,并将请求错误地转发给无关的协作代理。
解决方法: Llama和 Granite 等模型适合用于实验,但在复杂场景中更容易出现幻觉。 在生产环境中,请使用付费模型以获得更高的可靠性并减少幻觉现象。
使用 Llama-3-405b-instruct 进行重复工具调用
当使用该 Llama-3-405b-instruct 模型时, ReAct 风格的代理程序即使在收到成功响应后,仍会多次调用同一工具。
解决方法: 使用其他模型,例如 GPT‑OSS 120B‑OpenAI model (via Groq) 或 GPT‑OSS 120B‑OpenAI model (via Bedrock) ,这些模型出现此类情况的频率较低。
双子座模型工具调用失败
双子座模型(gemini-2.0-flash 和 gemini-2.5-pro)在启动工具时偶尔会失败,并返回错误 UNEXPECTED_TOOL_CALL 。
解决方法: 重试请求。 这是正在调查中的临时问题。
双子座模型局限性
以下限制适用于Gemini模型:
在
gemini-2.0-flash和gemini-2.5-pro型号上不支持在聊天中运行工具该
gemini-2.0-flash模型不支持React风格的使用方式
解决方法: 使用替代模型进行基于工具的交互,并采用类似React的实现方式。
聊天显示GPT-OSS模型出现错误
如果您使用的是 GPT‑OSS 120B‑OpenAI 模型(通过 Groq),聊天界面会显示错误信息,且不会提示用户输入内容。
解决方法: 在行为部分添加代理说明,指示代理在缺少必要输入时向用户发出提示。 例如,“若所需输入缺失,请勿进行推测。” 在单个问题中询问最少缺失的字段,然后等待
有关更多信息,请参阅 《在Groq中使用GPT-OSS 120B 模型——特殊注意事项》 和 《添加指令 》。