什么是 AI 生命周期?

AI 生命周期详解

AI 生命周期是规划、训练、部署和维护 AI 系统的结构化迭代过程。它不仅需要训练机器学习模型,还需要收集和准备训练数据、用于评估和改进模型性能的系统,以及将训练好的模型集成到实际的 AI 应用程序中。

AI 生命周期包括从最初决定使用人工智能解决特定问题,到在实际工作流中积极使用训练好的模型的所有流程。AI 生命周期的概念与机器学习运维 (MLOps)AI 管理系统 (AIMS) 等学科密切相关,而这两者都涉及AI 开发、治理与维护的系统性方法。

AI 开发生命周期的核心理念是:AI 解决方案并非孤立设计或部署,它们是动态系统,且其持续效能依赖于精心规划和严格监控。AI 开发与实施的每一步之间都存在关键依赖关系,而理解这些依赖关系对于构建成功、可扩展且可持续的人工智能驱动式解决方案至关重要。

本文将详细阐述 AI 生命周期中的每个基本步骤。

问题定义

AI 生命周期管理的第一个、也可谓是最重要的阶段是规划阶段;在此阶段,您需确定 AI 应用程序的用例:您使用 AI 来帮助解决的具体问题,以及 AI 可执行哪些具体任务来帮助解决此问题。所有后续决策都应参考规划流程中做出的决策。

必须考虑周全,并考虑到所有意外情况。跳过某些考虑因素并不能减少工作:它只会推迟和加剧该工作。在规划阶段,所有相关利益相关者都应参与其中并接受咨询,从而既可从他们独特的专业知识或观点中获益,也可确保对后续工作达成共识。

  • 定义 AI 项目的范围。您的 AI 解决方案将在哪些方面发挥作用或帮助解决您的问题?哪些方面不属于此范畴?

  • 定义您的需求。在您将利用 AI 来解决的问题领域中,您究竟需要它来做些什么?其中的关键是要了解哪些是可行的,哪些是不可行的,且无论是在现有 AI 功能方面,还是在开展该项目的可利用资源方面。

  • 定义成功。无论是定性还是(尤其是)定量,怎样的结果才算成功?尽早建立成功指标可指导设计决策并治理 AI 系统的开发和优化。

  • 评估风险。识别目前为止 AI 解决方案可能会对组织或用户产生不利影响的所有方式。在进入数据收集阶段之前,应指出并解决道德风险、声誉风险和财务风险—尤其考虑到数据管理不善往往是此类风险的根源。

数据收集和数据准备

从技术层面来看,训练数据的质量和数量是影响 AI 模型性能的最重要因素。

数据收集

假设所有机器学习都依赖于所应用的模式识别。训练好的机器学习模型利用其从训练数据中“学习”到的模式,来推断给定输入的最佳输出。必须实现充分的数据质量,以确保所学习的模式与其在实际应用程序中用以执行推理的新数据的模式相匹配。必须实现充足的数据量,以确保模型学习到它需利用的所有模式,并避免过度拟合

评估可供您使用的相关数据源,从通过 Hugging Face 或 Kaggle 等平台所提供的开源数据集到网络抓取,再到利用组织自己的专有数据。当高质量数据极其稀缺或昂贵时,合成数据有时可填补相关空白。

数据准备

原始数据很少能直接用于机器学习:通常需进行一定程度的预处理,然后才能用于模型训练管道。特征工程是此流程的重要组成部分。

监督学习需要数据标注,而这通常需要至少一定程度的人工干预(虽然自动化通常能简化此流程)。在某些专门的数据领域中,标记需要专家意见。即使是包含预标注数据的数据集,也应对其进行检查以确保标签的准确性及其与具体用例的相关性。

来自不同数据源的数据需进行归一化,并在单位和格式上保持一致:例如,用同时以摄氏度和华氏度呈现的天气数据训练模型必然会导致失败。

数据治理

数据不应在模型训练后直接丢弃。如果您需要审计系统、深入了解性能问题、复制模型或遵守 GDPR 或类似框架的监管要求,则应存储和维护这些信息。

适当的数据治理AI 可解释性数据隐私和监管合规性的重要组成部分,尤其是在涉及包含敏感信息的数据的行业与用例中。同时,它也是建立数据管道以简化可扩展数据采购的必要组件,尤其是当您的 AI 工作流会使用不断更新的专有数据时。

模型选择

接下来是模型选择:选择最适合您的用例、训练数据和计算资源的模型架构。机器学习算法种类繁多,从小型、简单的回归模型到大规模、最先进的神经网络,可谓应有尽有。最大、最奇特的模型并不总是最明智的选择:对于某些任务,超大深度学习模型显得有些小题大做,甚至对于某些任务,传统机器学习模型的表现还优于深度学习模型。

在生成式 AI 领域,从零开始训练 LLM 和其他类型的生成式模型需投入大量时间、数据、硬件和精力。多数情况下,通过微调预训练模型能更好满足定制生成式模型的需求。但是,即使是在现成模型领域,模型大小、架构和功能也存在巨大差异。

基准评估是用于确定哪些模型擅长哪些任务的实用指南,但不应将其视为绝对真理。如果您的问题定义明确,就值得深入了解开发定制基准的可行性,而这些基准可直接反映您需要模型执行的特定任务的表现。这对于后续的模型评估阶段也很有用。

模型训练

生成式 AI 之外,大多数 AI 解决方案都需要训练您自己的模型。我们的模型训练解释器提供了有关模型开发流程的更多信息,其范围涵盖从不同类型的机器学习到选择损失函数(或者,强化学习中的奖励函数),再到优化模型参数(和超参数)。在形成理想的架构和学习方案之前,通常需进行一定程度的实验。

归根结底,模型训练的目标是调整模型参数,直到模型针对其训练数据集中示例的性能达到某个可接受的准确性阈值。

模型训练是一个迭代过程,且并不总以稳定的线性方式进行。在整个训练过程中,定期保存模型权重的“检查点”非常重要。如果缺少此类版本控制,一次模型更新则可能演变为灾难,并迫使您重新开始。同时,版本控制也是团队间针对调试、可复现性与协作的必要实践。

模型评估

在训练数据的基础上优化模型性能本身并非模型训练的基本目标。模型训练的真正目标是开发一种能很好推广到尚未见过的新数据的模型。必须注意避免过度拟合(可将其理解为机器学习中的“应试教育”),它更接近于死记硬背,而非真正的“知识”。

训练后评估对于确认模型是否能很好泛化到未见过的数据至关重要。该验证流程会对一个包含类似真实任务的新输入的单个数据集测试模型输出质量。验证可使用比训练中用于衡量模型准确性的损失函数更为广泛的性能指标。

模型评估和模型训练通常会构成一个迭代周期的两个部分:

  • 首先,对模型进行训练,直到损失或奖励达到某个可接受的阈值。

  • 然后,对一组新任务验证模型性能,且通常会使用不同的性能指标。

  • 如果模型评估的结果无法令人满意,则会对模型进行进一步培训—通常是进行战略调整,以解决验证阶段发现的所有缺陷。

AI 学院

成为 AI 专家

获取相关知识,以确定 AI 投资的优先级,从而推动业务增长。立即开始观看我们的免费 AI 学院视频,引领 AI 在组织中的未来应用。

模型部署

模型训练完成并成功验证后,便会移动到部署阶段;在此阶段,您会在实际生产环境中运行模型,并将其与现有系统和 API 相集成。理想情况下,模型评估阶段已验证模型针对使用或至少近似于这些现实工作流的任务的性能。

模型部署环节需考虑很多配置,但最重要的决定或许是用于运行模型的部署环境类型。

部署环境

  • 本地部署:模型将在您(或您组织)拥有和维护的物理硬件(通常是 AI 加速器)上运行。此模式可提供最大程度的控制力,但也需要最多的前期投资。

  • 云部署:模型将在第三方云供应商拥有和运营的硬件上运行,而这些硬件实际位于大型数据中心内的其他位置。云部署通常是实现可扩展性的最快途径。

  • 边缘部署:模型将在“边缘设备”(例如,传感器或物联网 (IoT) 设备)的分布式本地网络上部署。

  • 设备端部署:模型将直接在最终用户的设备(例如,笔记本电脑或智能手机)上运行。

模型监控

已部署的模型不应被视为惰性的“成品”。适当的人工智能治理需持续监控模型性能指标和用户反馈。

在实际应用中,无论您事先规划、测试和红队扮演多么周全,都几乎都不可避免地会出现无法预见的问题和边缘情况。此外,即使是训练最优的模型,随着时间推移也可能会因模型漂移等问题而性能下降。

因此,部署的模型通常需定期进行再训练,以保持足够的性能并适应不断变化的环境。同样,深思熟虑的版本控制模式对于调试、责任追究和安全更新关键系统均至关重要。

作者

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

相关解决方案
IBM watsonx.ai

使用面向 AI 构建器的新一代企业级开发平台 IBM watsonx.ai,可以训练、验证、调整和部署生成式 AI、基础模型和机器学习功能。使用一小部分数据,即可在很短的时间内构建 AI 应用程序。

了解 watsonx.ai
人工智能 (AI) 解决方案

借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。

深入了解 AI 解决方案
AI 咨询与服务

通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。

深入了解人工智能服务
采取后续步骤

一站式访问跨越 AI 开发生命周期的功能。利用用户友好型界面、工作流并访问行业标准 API 和 SDK,生成功能强大的 AI 解决方案。

  1. 深入了解 watsonx.ai
  2. 预约实时演示