生成式 AI 能力模型

包含多种形状与符号的流程图,其中有蓝色对话气泡、问号与对号
概述

生成式 AI 架构能力模型概述了实现战略目标和运营要求所必需的企业能力。其中包括六个主要类别,展示了有效实施生成式 AI 所需的独特能力和支持能力,其他架构文档中提供了全面的说明。

生成式 AI 架构概述了实现战略目标和运营要求所必需的企业能力
有效部署和管理生成式 AI 解决方案所需的一级、二级和三级企业能力。
生成式 AI 独特能力

  • 生成式 AI 运营是在企业内部管理、部署和定制生成式 AI 模型所需的能力。此类别包括训练和调优模型、管理部署后模型的生命周期,以及管理企业内部用户可用的模型和数据集的能力。
  • 生成式 AI 应用开发是调整通用基础模型以用于企业和特定领域解决方案,以及开发全功能生成式 AI 应用所必需的能力。这包括创建和部署智能体式 AI 应用,以及测试和调优提示词所需的能力。
  • 生成式 AI 治理是有效监控和管理已部署到生产环境中的模型所需的一套能力。这些能力包括持续监控模型响应的准确性与恰当性,保护模型免受不当和/或恶意输入影响的能力,以及管理企业风险并协助满足监管合规与报告要求的治理能力。

  • 生成式 AI 安全管理侧重于保护 AI 系统所需的能力,确保其合乎道德且负责任地部署。这涉及保护整个 AI 技术栈,包括保护模型本身、模型的使用方式以及模型所依赖的数据。

其余的能力组是生成式  AI 的支持能力。这些能力并非生成式 AI 所独有,但作为企业能力,必须存在以支持生成式  AI 。这些能力组包括:

  • 数据管理是一组用于存储、管理和转换数据,使其适合生成式 AI 模型调优和训练的能力。此类别还包括记录和评估模型响应用于审计目的,以及作为进一步模型调优和改进的输入的能力。
     

  • 支持能力是一个总括性的能力组,包含在企业内成功部署和管理生成式 AI 解决方案所需的应用、集成和 IT 运营能力。
     

  • 生成式 AI 资源涵盖了高效且有效地开发、调优、部署和管理生成式 AI 模型及解决方案所必需的硬件和平台能力。

 

能力组与能力

每个能力类别由一个或多个能力组构成。本节重点介绍对生成式 AI 至关重要的能力组和能力。

模型中心能力组包含了管理导入模型以及企业调优或训练的模型所必需的能力。这些能力使企业能够管理企业内部可用的模型和数据集,并将对模型和数据集的访问权限限制于企业内的特定用户或用户组。模型导入数据导入是企业从日益增多的公共模型库(如 Hugging Face)中筛选引入模型的关键能力。

模型托管提供了将通用模型和调优模型作为启用 API 的服务在企业内部进行部署的能力,能够优化资源利用,支持独立优化和替换,并简化治理。其核心是模型访问策略管理,确保只有授权用户和用户组才能访问模型,防止未经授权的使用。

模型定制是一组使企业能够针对特定业务需求调优和训练生成式 AI 模型的能力。通常,此能力将使用云平台来实现,因为云的按需付费模式非常适合调优和训练资源需求的“突发性”特点。

模型与数据治理是企业大规模使用生成式 AI 模型的一组关键能力。具体而言,这些能力为企业提供了监控和管理模型风险(例如模型响应中引入的偏见)所需的洞察力,并有助于满足关于模型透明度和公平性的监管与合规要求。

模型监控是模型治理在运营层面的对应;模型治理处理的是长期模型和风险管理,而模型监控中的能力则使企业能够实时监控和管理模型运营。模型监控由若干关键能力组成,包括:

  • 偏见检测:检测并标记模型响应何时偏离既定/理想响应,并开始偏向一组结果而非另一组结果的能力。
  • 仇恨、辱骂和亵渎内容 (HAP) 检测:检测并过滤用户提交的提示词和模型生成的响应中的仇恨、辱骂和亵渎内容的能力。这些被认为是“基础”能力;企业通常会选择扩展过滤主题列表,以包含不适用于业务的主题,例如贷款机构中的性暗示话题,或适应当地受众的社会规范。
  • 提示词监控与安全:一种新兴能力,用于保护已部署的模型免受旨在破坏模型或规避企业建立的模型控制的攻击,例如提示词注入。

生成式 AI 合规管理:这类能力涉及通过应用堆栈启用“安全使用”AI 以及“保护应用本身”所需的控制。遵循道德标准和指南,以确保 AI 系统尊重人类价值观和权利。

  • AI 应用合规。使 AI“应用”能够遵守既定指南、法规和标准的能力。提供实现控制的能力,例如:AI 应用态势管理和合规,执行可信 AI 系统测试。
  • AI 模型合规:实现对 AI 模型的管理并使其遵守既定指南、法规和标准的能力。它支持关键控制,例如:模型漂移跟踪,模型态势管理和合规。
  • 法律与合规管理。确保组织紧跟监管环境(监管观察),并遵守有关 AI 开发、部署、监控和使用的法律要求、规则和标准(例如,持续合规与监管观察)
     

AI 应用安全管理。这类能力涉及通过应用堆栈启用“安全使用”AI 以及“保护应用本身”所需的控制。遵循道德标准和指南,以确保 AI 系统尊重人类价值观和权利。

  • AI 应用威胁管理与防护:识别、评估和缓解可能影响 AI 应用安全性、功能或可靠性的潜在风险和漏洞,并确保其即使在面临意外事件、故障或中断时也能适应、恢复并继续有效运行的能力。同时确保 AI 系统在整个生命周期内的鲁棒性、安全性和可靠性。
  • AI 应用交互安全:确保 AI 系统与其用户、其他系统及环境之间的交互以安全可靠的方式进行的机制。(例如,输入操纵、限制过度查询、防止有害结果)
  • AI 应用安全。确保 AI 系统安全可靠运行的能力和实践。它包含防止 AI 应用造成意外后果、错误和危害的策略(例如,记录可信 AI 工作、公平性评估)。
     

AI 模型安全管理。这类能力涉及启用保护“模型”层以及安全使用模型所需的控制。实施模型训练、验证和评估的最佳实践,增强性能和可靠性。

  • 提示词安全:确保提供给 AI 模型的输入提示词安全、无恶意且符合模型的预期行为,并保护模型免受未经授权的访问、篡改或攻击的能力。同样检查响应提示词在内容方面是否安全可靠,例如可能无意中泄露个人身份信息 (PII)(例如,提示词注入保护、防止推理攻击/最小化查询响应、防止有害结果)
  • AI 模型威胁检测是识别和缓解可能危及 AI 模型及其交互的完整性、安全性或性能的潜在风险或漏洞的能力(例如,模型安全测试、模型漏洞修复)
  • AI 模型访问管理。限制对生成式 AI 模型、模型参数、训练数据和 API 的访问,以防止潜在的滥用和攻击媒介。此能力围绕暴露给企业使用的模型(包括供 AI 应用使用的模型)建立访问控制;保护内部模型注册表安全,并限制对生产模型的内部访问。此类访问控制应包括考虑人员、操作内容、时间、地点等因素的上下文策略。
     

AI 数据安全管理。这类能力能够实现对“数据”层的控制。为数据收集、存储和使用制定明确的指南,以确保数据质量并减少偏见。虽然数据安全并非生成式 AI 独有,但我们将仅关注从数据角度来看生成式 AI 需要特别关注的领域。

  • 数据隐私与机密性是保护敏感信息,确保其得到妥善处理、保持私密且仅可供授权系统和用户访问的能力(例如,隐私保护、敏感数据安全、数据机密性)
     

智能体式 AI 是创建和部署智能体式 AI 应用所需的一组能力。其中包括核心能力,如路由与编排,以及工具管理与工具调用。

生成式 AI 调优是根据企业需求“定制”通用生成模型所必需的一组能力。模型基于广泛的知识库进行训练,因此会缺乏特定行业的术语和流程知识。因此,大多数企业需要利用提示词工程提示词调优模型微调等能力,来创建一个理解其业务术语和流程的模型。

生成式 AI 应用能力使企业能够开发高级的生成式 AI 应用。这些能力包括:动态生成函数以响应用户查询的能力;对话记忆,使生成式 AI 应用能够以对话方式保留和引用之前的交互;以及模型路由,使应用能够将查询动态路由到最适合响应的模型。

后续步骤

与我们的专家交流,了解如何加速您的生成式 AI 落地应用。

内容添加者

Chris KirbyMihai CrivetiWissam Dib

更新日期:2025 年 4 月 30 日