LangFlow 用于在低代码或无代码图形用户界面 (GUI) 中创建智能体式 AI 应用程序。用户通过连接组件来构建应用,这些连接关系决定了数据在应用中的流转路径。
若要构建用于客户服务自动化的智能体式 AI 聊天机器人应用,用户可先将聊天界面连接至大语言模型 (LLM)。此外,用户还可将大语言模型连接至公司内部的矢量数据库,以构建检索增强生成 (RAG) </a>系统,使模型能够查询包括客户订单历史在内的内部数据。
LLM 可以通过 API 密钥访问工具,这些密钥也可以作为模块化组件放入 AI 工作流中。为完成该智能体式应用的构建,需将大语言模型连接至第二个聊天组件,从而通过聊天界面向用户返回最终输出结果。
LangFlow 的核心价值源于其用户友好的核心特性与功能,主要包括:
低代码或无代码可视化界面
广泛的集成
组件库
可出口流量
开放式源代码
LangFlow 的易用性在很大程度上归功于其呈现方式。用户可以通过模块化的拖拽式可视化界面构建 AI 应用。机器学习 (ML) 流程的每个组件按顺序排列,并根据 AI 工作流的需要与其他组件相连。
可视化界面将复杂的编码项目转化为直观的流程图,并配有连接线,用于指示数据在人工智能 (AI) 系统中的流动。初学者可以使用 LangFlow 通过根据需要添加各种模型、组件和数据源来简化 AI 编排。同时,具有 Python 经验的用户可以在 LangFlow 内构建自定义组件。
作为无代码应用的范例,LangFlow 允许用户通过简单的滑块工具,为所选大语言模型执行有限的超参数微调。用户可通过左右轻推滑块,快速调整控制大语言模型输出随机性的超参数:温度 (Temperature)。
LangFlow 因其丰富的集成选项而提供了极大的灵活性。LangFlow 支持与众多机器学习框架的集成,并且像其母框架 LangChain 一样,涵盖相同范围的 API、矢量数据库及其他连接选项。
LangFlow 同样支持 LLM 链式调用,该功能允许在单一管道中按序连接多个模型。链式调用不同于多智能体编排,其中多个智能体(每个智能体可能使用自己的 LLM、工具或数据源)协作完成共享任务。LangFlow 的模块化设计支持这两种方法。
组件库包含了用户可以添加到其智能体式工作流中的所有组件:例如 OpenAI 的 GPT 系列、Meta 的 Llama 等大语言模型 (LLM),以及聊天界面、计算器、网页浏览器等更多组件。LangFlow 将组件分为两类:
构成大多数 LangFlow 项目主干的核心组件。
支持特定第三方集成的、针对不同服务提供商的专用组件包。
LangFlow 项目可导出为 JSON 格式的流程。创作者可以导出他们的流程,并与其他用户分享;其他用户随后可以将这些流程导入到各自的 LangFlow 实例中进行使用和修改。可导出的流程通过使流程可复用,从而增强协作并简化项目工作流。
与其上层框架 LangChain 一样,LangFlow 是开源的,这意味着其代码对公众开放,可供查看、贡献和修改。开源 AI 工具有助于提高 AI 的可解释性并提供运营透明度。然而,在 LangFlow 中使用闭源的大语言模型 (LLM) 或其他组件,并不会让用户获得对其内部机制的同样访问权限。
LangFlow 的拖放 GUI 非常适合 AI 应用程序的快速原型设计。用户可以使用 LangFlow 的模块化组件设计一个流程管道,与他人分享,进行测试,并根据需要进行迭代。与 Hugging Face Spaces 的集成也支持快速进行机器学习演示。
LangFlow 的核心应用场景之一是无代码 AI 智能体开发。通过组件库,用户可以将大语言模型 (LLM) 与工具、数据库及其他附加组件连接起来,使智能体能够获取完成其预定功能所需的资源。用户还可将 LLM 链接在一起或构建多智能体系统。
借助聊天界面和矢量数据库组件,LangFlow 可以轻松构建 RAG 系统。自然语言提示被转换为嵌入,检索模型使用它来查询连接的矢量数据库。
数据库包含与系统预期用例相关的信息。例如,旨在帮助新员工入职的 RAG 系统可以参考数据集中的培训文档。然后,LLM 将检索到的数据与提示相结合,向用户返回自然语言输出。
聊天机器人通常用于客户服务自动化。客户首先与聊天机器人进行互动,聊天机器人可以检索订单历史记录和产品信息等相关数据。如果客户查询过于复杂,聊天机器人可以上报给人工代表。
LangFlow 用户只需几个组件即可快速创建客服聊天机器人:
借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。
通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。