什么是智能体推理?

作者

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

什么是智能体式推理?

智能体推理是一种组件,属于人工智能智能体中负责决策制定的部分。它使人工智能智能体可以通过应用条件逻辑或启发式方法,依靠感知和记忆自主执行任务,使其能够努力实现目标并进行优化,以获得最佳可能结果。

早期的机器学习模型遵循一组预先编程的规则来做出决策。AI 的进步使得 AI 模型拥有了更先进的推理能力,但它们仍然需要人工干预才能将信息转化为知识。自主推理更进一步,使 AI 智能体能够将知识转化为行动。

“推理引擎”为自主工作流的规划和工具调用阶段提供支持。规划阶段将任务分解为更易于管理的推理,而工具调用阶段则通过可用的工具帮助 AI 智能体做出决策。这些工具可以包括应用程序编程接口 (API)、外部数据集以及知识图谱等数据源。

对于企业而言,智能体式 AI 可以通过检索增强生成 (RAG) 进一步将推理过程锚定到证据。RAG 系统可以检索企业数据和其他相关信息,并将其添加到 AI 智能体的上下文中进行推理。

辅以专家洞察分析的最新科技新闻

通过 Think 时事通讯,了解有关 AI、自动化、数据等方面最重要且最有趣的行业趋势。请参阅 IBM 隐私声明

谢谢!您已订阅。

您的订阅将以英语提供。您会在每份时事通讯中找到一个取消订阅链接。您可以在此管理您的订阅或取消订阅。更多相关信息,请参阅我们的《IBM 隐私声明》。

智能体式推理战略

可以根据智能体的架构和类型以不同的方式进行自主推理。以下是一些常见的 AI 智能体推理技术,包括每种技术的优缺点:

    ● 条件逻辑

    ● 启发式

    ● ReAct(推理 + 行动)

    ● ReWOO(无观察推理)

    ● 自我反省

    ● 多智能体推理

条件逻辑

简易 AI 智能体遵循一组预编程的“条件-行动”规则。这些规则通常采用“if-then”语句的形式,其中“if”部分指定条件,“then”部分指示行动。当满足条件时,AI 智能体会执行相应的操作。

这种推理方法尤其适用于特定于领域的用例。例如,在金融领域,欺诈检测智能体根据银行定义的一组标准将交易标记为欺诈。

利用条件逻辑,智能体式 AI 在遇到它无法识别的场景时将无法采取相应行动。为了减少这种不灵活性,基于模型的智能体利用它们的记忆和感知来存储当前的环境模型或状态。当智能体收到新信息时,此状态也会更新。但是,基于模型的智能体仍然受“条件-行动”规则的约束。

例如,机器人在仓库中导航,以便将产品上架。它会参考仓库模型来确定自己的路线,但当它感知到障碍物时,可以改变其路径以避开该障碍物并继续遍历。

启发式

AI 智能体系统还可以使用启发法进行推理。例如,基于目标的智能体有一个预设的目标。使用搜索算法,它们找到可以帮助它们实现目标的行动序列,然后在执行这些行动之前予以规划。

例如,自动驾驶汽车可以有一个导航智能体,其目标是实时推荐通往目的地的最快路径。它可以搜索不同的路线,并推荐一条最快的路线。

与基于目标的智能体一样,基于效用的智能体会搜索能够实现目标的动作序列,但它们也会考虑效用。它们使用效用函数来确定最优结果。在导航智能体的示例中,它不仅可以找到最快的路线,还可以找到耗油量最少的路线。

ReAct(推理 + 行动)

这种推理范式涉及一个“思考-行动-观察”的循环,用于逐步解决问题并迭代改进响应。智能体被指示生成其推理过程的痕迹1,这类似于在思维链推理中,生成式人工智能(生成式 AI)模型和大语言模型 (LLM)的表现。然后,它将推理付诸行动,并观察其输出,2 根据观察结果用新的推理更新其上下文。智能体重复这一循环,直到得出答案或解决方案。2

ReAct 在特定于自然语言的任务方面表现出色,而且其可追溯性提高了透明度。但是,它也可能重复生成相同的推理和操作,从而导致无限循环。 2

ReWOO(无观察推理)

与 ReAct 不同,ReWOO 删除了观察步骤并提前计划。这种自主推理设计模式由 3 个模块组成:规划器、工作器和求解器。 3

规划器模块将任务分解为多个子任务,并将每个子任务分配给一个工作器模块。工作器将用于证实每个子任务的工具与证据和事实相结合。最后,求解器模块综合所有子任务及其对应的证据来得出结论。3

ReWOO 在某些 自然语言处理 (NLP) 基准测试中优于 ReAct。但是,添加额外工具可能会降低 ReWOO 的性能,并且在环境上下文有限的情况下表现不佳。3

自我反思

智能体式 AI 还可以将自我反省作为评估和完善其推理能力的一部分。这方面的一个例子是语言智能体树搜索 (LATS),它与 LLM 中的思维树推理有相似之处。

LATS 的灵感来源于蒙特卡洛强化学习方法,研究人员将蒙特卡洛树搜索改进并应用于基于 LLM 的智能体中。4LATS 会构建一个决策树,其中节点表示状态,边表示动作;它会在树中搜索潜在的动作选项,并利用状态评估器选择特定的动作。2还采用自我反思推理步骤,结合自身的观察结果以及语言模型的反馈,找出推理中的任何错误,并推荐替代方案。2推理错误和反思被存储在记忆中,作为额外上下文供未来参考。4

LATS 擅长处理更复杂的任务,例如编码和交互式问答,以及工作流自动化,包括网络搜索和导航。4但是,与 ReAct 之类的方法相比,更复杂的方法和额外的自我反省步骤使 LATS 更加耗费资源和时间。2

多智能体推理

多智能体系统由多个 AI 智能体组成,这些智能体协同工作以解决复杂问题。每个智能体都专注于某个领域,并能够应用自己的自主推理策略。

但是,决策过程可能会根据 AI 系统的架构而有所不同。在分层或垂直生态系统中,一个智能体充当 AI 编排的领导者,并决定要采取哪些行动。而在水平架构中,由诸智能体集体做出决定。

AI 智能体

5 种类型的 AI 智能体:自主功能与现实世界的应用

了解目标驱动和基于效用的 AI 如何适应工作流和复杂环境。

智能体式推理的挑战

推理是 AI 智能体的核心,可实现更强大的 AI 功能,但也有其局限性。以下是自主推理中的一些挑战:

    ● 计算复杂性

    ● 可解释性

    ● 可扩展性

计算复杂性

智能体式推理可能很难实施。这一过程还需要大量的时间和计算能力,尤其是在解决更复杂的现实问题时。企业必须找到优化智能体式推理战略的方法,并准备投资必要的人工智能平台和资源以进行开发。

可解释性

自主推理可能缺乏决策方式的可解释性透明度 。各种方法可以帮助建立可解释性,将 AI 伦理和人类监督整合到算法开发中对于确保自主推理引擎公平、合乎道德和准确地做出决策至关重要。

可扩展性

智能体式推理技术并不是通用的解决方案,因此很难跨 AI 应用程序扩展。企业可能需要为每个用例量身定制这些推理设计模式,这需要时间和精力。

相关解决方案
商用 AI 智能体

构建、部署和管理强大的 AI 助手和智能体,运用生成式 AI 实现工作流和流程自动化。

    探索 watsonx Orchestrate
    IBM AI 智能体解决方案

    借助值得信赖的 AI 解决方案,您可以勾勒未来业务发展蓝图。

    深入了解 AI 智能体解决方案
    IBM Consulting AI 服务

    IBM Consulting AI 服务有助于重塑企业利用 AI 实现转型的方式。

    探索人工智能服务
    采取下一步行动

    无论您是选择定制预构建的应用程序和技能,还是使用 AI 开发平台构建和部署定制代理服务,IBM watsonx 平台都能满足您的需求。

    探索 watsonx Orchestrate 深入了解 watsonx.ai