阅读可解释的 AI 如何为生产 AI 带来好处

什么是可解释的 AI?

可解释的人工智能 (XAI) 是一套流程和方法,可使人类用户能够理解和信任机器学习算法所产生的结果和输出。 可解释的 AI 用于描述 AI 模型、其预期影响和潜在偏见。 它有助于描述 AI 支持的决策中的模型准确性、公平性、透明度和结果。 在将 AI 模型投入生产时,可解释的 AI 对于组织建立信任和信心至关重要。 AI 可解释性也有助于组织采用负责任的方法进行 AI 开发。

随着 AI 越来越先进,人类面临的挑战是理解和追溯算法如何得出结果。 整个计算过程变成了通常所说的"黑匣子",无法进行解释。 这些黑匣子模型是从数据直接创建而来。 甚至连创建算法的工程师或数据科学家都无法理解或解释其内部到底发生了什么或 AI 算法如何得出特定结果。

了解基于 AI 的系统如何生成特定输出有许多好处。 可解释性可以帮助开发人员确保系统按预期运行,可能需要满足监管标准,或者有必要允许受决策影响的人员质疑或更改该输出。¹

使用笔记本电脑工作的专业人士

为什么可解释的 AI 非常重要?

组织必须对 AI 的决策过程有充分的了解,并对 AI 进行模型监视和问责,而非盲目信任 AI。 可解释的 AI 可以帮助人类理解和解释机器学习 (ML) 算法、深度学习和神经网络。

ML 模型通常被认为是无法解释的黑匣子。² 用于深度学习的神经网络是人类最难理解的技术之一。 偏见往往基于种族、性别、年龄或位置,一直是 AI 模型训练方面长期存在的风险。 此外,由于生产数据与训练数据不同,AI 模型性能可能会漂移或降低。 这使得企业必须持续监视和管理模型以提高 AI 可解释性,同时衡量使用此类算法的业务影响。 可解释的 AI 还有助于加强最终用户信任、模型可审计性和 AI 的生产性使用。 它还可以降低生产 AI 的合规性、法律、安全和声誉风险。

可解释的 AI 是实现负责任的 AI 的关键要求之一,它是在现实组织中大规模实施具备公平性、模型可解释性和问责性的 AI 方法的方法论。为了帮助负责任地采用 AI,组织需要构建基于信任和透明度的 AI 系统,将道德原则嵌入到 AI 应用和流程中。

看着笔记本电脑上参加视频会议的人员的人

持续模型评估

借助可解释的 AI,企业可以帮助项目干系人理解 AI 模型的行为,同时进行故障诊断并改进模型性能。 通过跟踪有关部署状态、公平性、质量和漂移的模型洞察来调查模型行为,这对于扩展 AI 至关重要。 持续模型评估使企业能够比较模型预测,量化模型风险,并优化模型性能。 通过用于生成解释的数据,显示模型行为的正值和负值,从而加快模型评估。 数据和 AI 平台可以生成特征属性以用于模型预测,并支持团队通过交互式图表和可导出文档直观地调查模型行为。

使用笔记本电脑工作的专业人士

可解释 AI 的价值

来自 Forrester 的一项调研,内容涵盖 IBM Cloud Pak for Data 上的可解释 AI 和模型监视

可解释 AI 的好处

充满信任和信心地实施 AI

在生产 AI 中建立信任。 快速将 AI 模型投入生产。 确保 AI 模型的可解释性。 简化模型评估流程,同时提高模型透明度和可跟踪性。

加快取得 AI 结果

系统性地监视和管理模型以优化业务成果。 持续评估和改进模型性能。 基于持续评估对模型开发工作进行微调。

降低模型管理的风险和成本

确保 AI 模型可解释且透明。 管理监管、合规性、风险和其他需求。 最大程度减少人工检查的开销和代价高昂的错误。 减轻无意识偏见的风险。

IBM 实现可解释 AI 的方法

100 多年来,IBM 一直致力于能够造福所有人而不是少数人的创新。 这个理念也适用于 AI:我们的目标是创建并提供可靠的技术,以辅助而不是取代人类决策。

尽管 AI 有望在众多应用程序中提供有价值的洞察和模式,但广泛采用 AI 系统将在很大程度上依赖于人们信任 AI 输出的能力。 人类对技术的信任是基于我们对其工作方式的理解以及对其安全性和可靠性的评估。 这使可解释的 AI 变得至关重要。 IBM 实现可解释 AI 的方法是使 AI 变得可靠且公平,使其能够被解释,并帮助确保其不会构成任何危害。

作为我们的核心创新力量,IBM 研究院正在开发各种方法,解决如何实现公平性、稳健性、可解释性、问责性和价值一致性,以及如何将这些特性整合到 AI 应用程序的整个生命周期中等问题。 IBM 研究院开发的可解释 AI 框架和工具集已集成到 IBM Cloud Pak for Data 平台中,因此企业可以通过受管、安全且可扩展的方式利用我们最新的 AI 技术。

站在办公室窗口前看手机的人

可解释 AI 的五个考虑因素

可解释 AI 的五个考虑因素

为利用可解释的 AI 来推动取得理想的结果,需要考虑以下因素:

公平性和消除偏见:管理并监视公平性。 扫描部署以了解潜在偏见。 

模型漂移缓解:分析模型,并根据最符合逻辑的结果提出建议。 当模型偏离预期结果时发出警报。

模型风险管理:量化并降低模型风险。 在模型执行不当时收到警报。 了解出现偏离时发生的情况。

生命周期自动化:在集成的数据和 AI 服务中构建、运行和管理模型。 统一平台上的工具和流程,以监视模型并分享结果。 说明机器学习模型之间的依赖关系。

多云就绪:在混合云(包括公有云、私有云和本地)环境中部署 AI 项目。 利用可解释的 AI 提高信任和信心。

现代玻璃建筑的特写

通过 IBM Cloud Pak for Data 提高 AI 可解释性

IBM Cloud Pak® for Data 平台在统一的环境中提供数据和 AI 服务,这样企业就可以评估数据和模型的影响及关系,从而提高 AI 的可解释性。 它还可以帮助企业获取有关部署、公平性、质量和风险的模型洞察。 该解决方案使用对比解释和局部可理解的与模型无关的解释 (LIME) 等工具,帮助解释 AI 事务、分类模型、图像模型和非结构化文本模型。 通过在现代信息架构上实现 AI 生命周期自动化,使 AI 变得可解释且透明,这对于成功获得生产 AI 至关重要。

深入了解可解释的 AI

可解释的 AI 如何工作?

通过可解释的 AI 以及可解释的机器学习技术,组织可以访问 AI 技术的底层决策流程,并能够进行调整。 可解释的 AI 可以帮助最终用户信任 AI 能够制定明智决策,从而改善产品或服务的用户体验。 AI 系统何时能够给予足够的信心让您可以信任它的决策,以及 AI 系统如何纠正出现的错误?

随着 AI 变得越来越先进,我们仍然需要理解和控制 ML 流程,以确保 AI 模型结果的准确性。 让我们来看看 AI 和 XAI 之间的区别,用于将 AI 转化为 XAI 的方法和技术,以及理解和解释 AI 流程之间的差异。

AI 与 XAI 的比较

“常规” AI 与可解释的 AI 之间到底有何区别? XAI 实施特定的技术和方法,确保在 ML 过程中做出的每个决策都可以跟踪和解释。 另一方面,AI 往往使用 ML 算法来生成结果,但 AI 系统的架构设计师并不完全理解算法如何得出这一结果。 这使其难以检查准确性,并导致失去控制、问责性和可审计性。

可解释的 AI 技术

XAI 技术有三种主要的设置方法。 预测准确性和可跟踪性能够解决技术需求,而决策理解能够解决人类需求。 如果未来的战士需要理解、适当信任和有效管理新一代人工智能机器伙伴,那么可解释的 AI,尤其是可解释的机器学习算法将必不可少。

预测准确性
准确性是在日常运营中成功使用 AI 的关键要素。 通过运行模拟,并将 XAI 输出与训练数据集中的结果进行比较,可以确定预测准确性。 这方面最流行的技术是局部可理解的与模型无关的解释 (LIME),它可以解释 ML 算法对分类器的预测。

可跟踪性
可跟踪性是实现 XAI 的另一项关键技术。 例如,通过限制做出决策的方式以及针对 ML 规则和功能设置更小的范围,可以实现这一目的。 可跟踪性 XAI 技术的一个示例是 DeepLIFT(深度学习重要特征),它将每个神经元的激活与其参考神经元进行比较,并显示每个激活神经元之间的可跟踪链接,甚至显示它们之间的依赖关系。

决策理解
这是人类因素。 很多人对 AI 不信任,但为了高效地利用 AI,需要学会信任 AI。 这可以通过训练团队与 AI 进行合作来实现,这样他们就能理解 AI 如何以及为何做出决策。

AI 中的可解释性与可理解性

可理解性是指观察者能够理解决策原因的程度。 它表示人类可以预测 AI 输出结果的成功率,而可解释性则更进一步,旨在了解 AI 如何得出结果。

可解释的 AI 与负责任的 AI 有何关系?

可解释的 AI 和负责任的 AI 具有相似的目标,但使用不同的方法。 以下是可解释的 AI 和负责任的 AI 之间的主要差异:

  • 可解释的 AI 侧重于计算出结果后的 AI 结果。
  • 而负责任的 AI 侧重于在规划阶段的 AI 结果,以使 AI 算法在计算出结果之前负责。
  • 可解释的 AI 和负责任的 AI 可以协同合作,让 AI 变得出色。

要了解有关可解释 AI 的更多信息,请注册 IBMid 并立即开始试用 IBM Cloud Pak for Data

如何实施可解释的 AI

使用以下资源,了解有关如何实施可解释 AI 的更多信息。

在线研讨会: 如何管理和监视模型了解当模型不起作用时可以执行的操作。

观看网络研讨会(链接位于 IBM 外部)→

学习路径: 带着信任管理 AI了解如何跟踪和衡量 AI 在其整个生命周期中的成果,同时调整和管理 AI 以适应多变的业务条件。

查看教程 →

实践实验室: 监视机器学习模型探索评估模型的分步流程,以评估模型的公平性、准确性和可解释性。 
查看实验室 →

可解释 AI 的用例

医疗保健

3 名外科医生进行手术操作的特写照片

加速诊断、影像分析、资源优化和医疗诊断。 提高患者护理决策的透明度和可跟踪性。 通过可解释的 AI 简化药品审批流程。

金融服务业

使用笔记本电脑工作的同时拿着信用卡的人

通过透明的贷款和信贷审批流程改善客户体验。 加快信用风险、财富管理和金融犯罪风险评估。 加速解决潜在的投诉和问题。 提高对定价、产品推荐和投资服务的信心。

刑事司法

在使用犯罪现场胶带划分出来的区域前的警察

优化预测和风险评估流程。 利用可解释的 AI 进行 DNA 分析、监狱人口分析和犯罪预测,从而加快问题解决速度。 检测训练数据和算法中的潜在偏见。

脚注

¹ “可解释的 AI”,英国皇家学会,2019 年 11 月 28 日。(链接位于 IBM 外部)
² “人工智能”,Jaime Zornoza,2020 年 4 月 15 日。(链接位于 IBM 外部)
³ “可解释的人工智能 (XAI):负责任 AI 的概念、分类、机遇和挑战”,ScienceDirect,2020 年 6 月。(链接位于 IBM 外部)
⁴ “了解可解释的 AI”,Ron Schmelzer,福布斯撰稿人,2019 年 7 月 23 日。(链接位于 IBM 外部)
⁵ “可解释的人工智能 (XAI) ”, Matt Turek 博士,美国 国防部高级研究计划署 (DARPA) 。(链接位于 IBM 外部)