模型治理是一个端到端的过程,企业通过这个过程建立、实施和维护对模型使用的控制。它包括从模型文档和版本控制到回测、模型监控和可观测性的所有内容。
模型治理源于金融业,用于管控复杂金融模型风险。 随着 人工智能 (AI) 和 机器学习 (ML) 技术的兴起, 模型治理 的重要性迅速提升。 麦肯锡咨询数据显示,78% 组织已在至少一个业务职能中使用 AI——凸显了 AI 和 ML 模型在运营和战略决策中的深度嵌入程度。
模型治理的目的是确保模型(无论是传统金融模型还是机器学习模型)按预期运行、保持合规并随着时间的推移提供可信赖的结果。强大的模型治理框架支持整个模型生命周期的透明度、问责制和可重复性。
在银行与保险等受监管行业, 模型治理 是合规性要求。 美国货币监理署 (OCC) 明确金融机构管理 模型风险 的具体治理实践。 虽然 OCC 指南不具备法律强制力,但应用于监管审查。不合规将导致罚款或其他处罚。
随着实时决策成为常态和监管要求不断发展,有效的模型治理正在成为旨在负责任地利用 AI 的组织的一项关键能力。
组织日益依赖复杂模型支撑高风险决策。无论银行业信贷评分或医疗业患者风险评估,这些模型的有效性完全取决于管理它们的框架。
模型治理提供了一个结构,用于监督模型的开发、部署和持续性能。通过在模型生命周期的每个阶段建立明确的控制和问责制,组织可以确保其模型始终可靠并与业务目标保持一致。这使得模型治理成为风险管理、监管合规性和运营完整性的基本组成部分。
大多数模型(尤其是 ML 模型)已经嵌入核心业务流程。如果没有适当的治理,这些模型可能会随着时间的推移而漂移,导致模型性能下降、结果有偏倚或决策不符合当前的市场条件或人口趋势。在金融或医疗保健等行业,这些失败可能会产生重大的现实后果。
模型治理提供了一种在这些风险影响业务结果之前对其进行评估和缓解的机制。此外,组织还可利用模型治理来:
随着 AI 应用加速,模型治理也为 合乎伦理的人工智能奠定了基础。 它提供了一种方法,将公平性、问责制和透明度融入到各种应用场景中模型的设计和部署过程中。
模型治理框架为庞杂的算法、数据集、利益相关方及工作流生态系统提供结构化管控。 框架因行业而异,但通常包含以下核心组件:
集中式模型库存允许组织跟踪正在使用的每个模型及其目的、所有权、方法和生命周期中的状态。这包括金融模型、信用评分算法、用于欺诈检测的 ML 模型,甚至嵌入电子表格的模型。
维护良好的模型库存还有助于更好地进行风险评估,并促进围绕模型使用的实时决策。
模型部署后,治理不会停止。持续的模型监控对于检测性能下降、模型输入的漂移或数据质量的变化至关重要。可观测性工具可以帮助跟踪准确性和召回率等指标,检测可能需要重新训练或重新校准的异常。
在现代机器学习运营 (MLOps) 工作流程中,组织可以自动执行部分部署流程,将治理检查直接纳入持续集成、持续交付 (CI/CD) 管道。这样可以在不影响监督的情况下实现更快的迭代。
模型治理是一项团队运动,数据科学家、风险官、业务领导者、合规团队和审计师都是其中的关键参与者。定义明确的职责和工作流可确保在生命周期的每个阶段(从开发到验证再到模型退役)承担责任。
有效的治理还涉及沟通。无论是通过内部仪表板、治理报告,还是跨职能团队的专用播客,信息都必须在利益相关者之间有效流动。
模型治理 原则适用于多行业,各领域风险、法规及优先级不同:
医疗保健组织使用模型来帮助进行临床决策支持、运营规划和患者风险评估。这自然事关重大;模型输出的错误可能导致误诊或治疗的优先顺序错误。
该领域的治理解决方案确保 ML 模型在代表性数据集上进行训练,考虑不同的人口因素,并符合隐私和数据治理标准,例如《健康保险流通和责任法案》(HIPAA)。
模型治理通过区域和全球法规来执行,这些法规要求组织对其整个生命周期中的模型管理方式负责。值得注意的法规包括:
SR 11-7 设定了银行业模型风险管理的标准,要求机构维护模型的完整库存清单并实施全企业范围的治理实践。它还要求模型满足其预期目的、保持最新并且具有足够清晰以供独立理解的文档。
美国保险监督官协会 (NAIC) 推出 AI 与算法决策监管模型, 特别是涉及信贷评分、定价和人口统计公平性时。 这些要素对保险承保与理赔处理治理日益关键。
《欧盟人工智能法案》,也称为《欧盟 AI 法案》或《AI 法案》,是一部管理欧盟 AI 开发和/或使用的法律。该法案采取基于风险的监管方法,根据 AI 带来的风险对其适用不同的规则。
根据《通用数据保护条例》(GDPR),任何处理欧盟公民个人数据的模型都必须遵循公平、透明和问责等原则。这会间接影响 ML 模型治理,尤其是在可解释性和数据质量方面。
瑞士金融市场监管局 (FINMA) 和英国审慎监管局 (PRA) 都发布了有关金融服务中 AI 和模型使用的指南,分别是 FINMA 指南 08/2024 和 PRA 监管声明 SS1/23。
这些文档涉及模型治理、ML 模型的可解释性和全面的模型文档等领域。而它们与 SR 11-7 有相似之处,各自特别强调了 AI 特定风险和运营弹性等方面。
Basel 框架概述了有效的风险数据聚合和风险报告 (BCB 239) 的原则,这些原则与文档编制、可解释性和模型风险监督等模型治理实践直接相关。在国际上开展业务的银行通常将 Basel 协议与 SR 11-7 一同作为黄金标准。
尽管模型治理的价值显而易见,但大规模实施它会带来一些挑战:
随着 AI 和 ML 越来越深入地融入到工作流中,新的力量正在塑造组织执行模型治理的方式。虽然验证、模型文档记录和模型监控等基础实践仍然至关重要,但一些新兴趋势开始重新定义期望。
先进的 可观测性 工具正被用于跟踪已部署 ML 模型的性能并检测(模型)漂移。
组织正在实现治理工作流的部分自动化。例如,通过将验证检查点嵌入到模型部署管道中,可以减少开发与合规性之间的摩擦。
多团队转向标准化 治理框架(尤其是在银行和医疗等受监管的行业)。
公平性与偏见检测等伦理要素日益融入 验证流程。
这些趋势反映了一个更广泛的转变:模式治理正在从一种防御性方法演变为一种功能。通过利用结构化、跨职能的治理实践,组织可以增强对其机器学习模型的信任,同时加速创新。
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。