什么是值得信赖的 AI?

同事们看着窗边办公桌上的笔记本电脑

作者

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Amanda McGrath

Staff Writer

IBM Think

什么是值得信赖的 AI?

值得信赖的 AI 是指人工智能系统可说明、公平、可解读、健壮、透明、安全和可靠。这些品质在利益相关者和最终用户中建立了对 AI 系统的信任和信心。

值得信赖的人工智能 (TAI) 可以降低与部署 AI 模型相关的潜在风险。这些 AI 风险包括对人类、组织和生态系统的危害。当此类危害发生时,它们不仅会破坏对特定 AI 模型的信任,还会破坏对全体人工智能的信任。

值得信赖的 AI 框架可以帮助指导各组织开发、采用和评估 AI 技术。一些政府和政府间组织已经建立了这样的框架,包括美国国家标准与技术研究院 (NIST)、欧盟委员会 AI 能高级别专家组和经济合作与发展组织 (OECD)。

此外,企业还可以实施不同的策略和工具来提高 AI 系统的可信度。例如,持续监控、文档记录和人工智能治理框架都有助于最大限度地降低风险。

 

为什么值得信赖的 AI 很重要?

了解一项科技的运作原理通常是信任其效能的关键。但许多 AI 和机器学习 (ML) 系统(例如深度学习模型)的运作方式就像是名副其实的黑匣;它们采集数据并创建输出,而对于如何获得这些输出,几乎是不透明的。

结果,信任缺失比比皆是。2023 年的一项调查发现,超过 40% 的企业领导者表达了对 AI 可信度的担忧。1与此同时,消费者也表现出对 AI 的不信任:2024 年的一项研究发现,在产品标签中包含“人工智能”一词,会降低购物者购买该产品的可能性。2

AI 系统在高风险用例中产生错误或有害结果的现实例子,进一步加剧了对 AI 信任的担忧。在一个著名的医疗案例中,AI 模型未能可靠地诊断出败血症。虽然该模型在训练环境中表现良好,但却无法检测出三分之二以上医院患者的败血症。3

在其他情况下,AI 模型显示出有偏见的算法决策,包括预测性警务系统不成比例地针对少数族裔社区,以及求职者跟踪系统偏爱男性求职者而非女性求职者。此外,还有一些安全问题,比如 AI 聊天机器人无意中泄露敏感的个人数据,以及黑客利用 AI 模型的漏洞窃取企业专有信息。

当 AI 模型表现不佳或产生有害结果时,它不仅会破坏人们对这些模型的信任,还会破坏人们对全体人工智能的信任,并可能阻碍 AI 未来的发展和采用。实现值得信赖的 AI 系统并支持未来 AI 发展,意味着要揭开所谓“AI 黑匣”中的奥秘。这使得利益相关者能够依靠他们的 AI 应用程序提供可靠、准确的结果,同时最大限度地降低结果有偏见或与初衷不符的风险。

 

值得信赖的 AI 的原则是什么?

要获得值得信赖的 AI,不同的组织和框架强调不同的指导原则和目标。关于值得信赖的 AI,频繁提及的原则包括:

  • 问责制
  • 可解释性
  • 公平性
  • 可解读性和透明度
  • 隐私
  • 可靠性
  • 稳健性和安全性
  • 安全性

问责制

AI 的问责制要求 AI 参与者对 AI 系统在整个生命周期的正常运行负责。这包括参与开发、部署或运营 AI 技术的个人和组织。4

 

可解释性

AI 可说明性是关于验证或为模型的输出提供依据。有多种可说明性方法,统称为可说明的人工智能,使人类用户能够理解和信任由机器学习产生的结果和输出。

 

公平性

AI 中的公平是指公平对待个人和群体。它包括减少算法数据偏见。当机器学习算法中的系统误差产生不公平或歧视性结果时,就会出现算法偏见;而数据偏见则是指 AI 模型中使用的训练数据存在偏见或不具代表性。

 

可解读性和透明度

AI 的可解释性有助于人们更好地理解和解释 AI 模型的决策过程。可解释性是指透明度,让用户能够理解模型的结构、使用的功能以及如何将它们结合起来进行预测。有些模型本身就可以解释,有些则需要使用解释方法。

 

隐私

AI 隐私是指保护 AI 收集、使用、共享或存储的个人或敏感信息。AI 隐私与数据隐私密切相关。数据隐私又称信息隐私,是指个人应对其 个人数据拥有控制权的原则。 维护 AI 和数据隐私可以通过从密码学到联合学习等多种方法来改善。

 

可靠性

可靠性可定义为在特定条件下,在一定时间内按预期或要求运行而不发生故障的能力。可靠的 AI 系统在预期条件下使用时,应在一定时期内(可能包括这些系统的整个使用寿命)提供正确的结果。5

 

稳健性和安全性

安全、强大的 AI 系统具有保护机制,可抵御对抗性攻击和未经授权的访问,从而将网络安全风险和漏洞危害性降至最低。它们可以在异常条件下运行而不会造成意外损害,并在发生意外事件后恢复正常功能。

 

安全性

安全的 AI 系统不会危及人类生命、健康、财产或环境。这些措施旨在主动保护人们免受伤害,并包括减少不安全结果的措施,包括可能停止使用系统。6

 

值得信赖的 AI 可以降低哪些风险?

缺乏可信品质的 AI 系统会带来各种风险。美国商务部下属的美国国家标准与技术研究院 (NIST) 制定了一个框架,该框架已成为 AI 风险管理的基准。它将 AI 系统的潜在危害风险分为以下几类:7

  • 对人类的危害
  • 对组织的损害
  • 对生态系统的危害

对人类的危害

该类别包括对个人的公民自由、权利、身体或心理安全或经济机会构成的损害。它还包括因歧视对群体造成的影响,以及以损害民主参与或教育机会的形式对社会造成的影响。

 

对组织的损害

这一类别指的是对组织业务运营的损害、安全漏洞或金钱损失造成的损害,以及对组织声誉的损害。

 

对生态系统的危害

这一类别包括对"相互关联和相互依存的要素和资源"造成的损害。NIST 特别提到了对全球金融体系、供应链或"相互关联的系统"以及自然资源、环境和地球的危害。

 

AI 系统有偏见或不准确的输出会造成多重伤害。回到前面的例子,有偏见的申请人跟踪系统会损害个人的经济机会,同时也会损害组织的声誉。如果大型语言模型 (LLM) 被诱骗运行恶意软件,导致公司运营瘫痪,则可能对公司及其所属的供应链造成损害。

值得信赖的 AI 系统可能有助于防止这种可怕的情况和后果。根据 NIST 的说法,"值得信赖的 AI 系统及其负责任的使用可以降低负面风险,并为人类、组织和生态系统带来益处"。

 

值得信赖的 AI 框架

近年来,出现了不同的框架来指导 AI 提供商和用户开发、部署和运营值得信赖的 AI 系统。这些框架包括:

 

NIST AI 风险管理框架

2023 年 1 月发布的《NIST 人工智能风险管理框架》(AI RMF) 概述了 AI 生命周期中的 AI 风险以及值得信赖的 AI 系统的特征。该框架还概述了帮助各组织管理此类系统的具体行动,包括测试、评估、验证和确认任务。

该自愿性框架适用于任何公司或地区,但 NIST 承认,并非所有值得信赖的 AI 特征都适用于各种环境。该框架鼓励利用人类的判断力来选择适用的可信度指标,并考虑到在优化一种或另一种值得信赖的 AI 特性时,通常需要进行权衡。2024 年 7 月,NIST 发布了《AI RMF》的配套资源,重点关注生成式 AI。

 

经济合作与发展组织 (OECD) AI 原则

OECD 的 AI 原则促进在使用 AI 时尊重人权和民主价值观。OECD 框架于 2019 年 5 月通过,并于 2024 年 5 月更新,其中包括基于价值观的原则和对决策者的建议。OECD 称这些建议是首个政府间 AI 标准,全球有 47 个国家加入,包括美国、欧盟国家以及南美和亚洲国家。

 

欧盟可信人工智能道德准则

欧盟委员会 AI 高级别专家组于 2019 年 4 月发布了欧盟指导方针,该指导方针侧重于 AI 伦理,并强调在欧盟发展 AI 要"以人为本"。指导方针包括 7 项伦理原则,如"人的能动性和监督"以及"社会和环境福祉"。次年,该组织发布了值得信赖的 AI 评估清单(链接位于 ibm.com 以外),帮助组织评估其 AI 系统。

虽然指导方针本身不具有约束力,但后来在具有里程碑意义的EU AI 法案中被引用,该法案对欧盟开发或使用 人工智能进行了规范。该法案文本指出,欧盟 AI 伦理原则"应尽可能在 AI 模型的设计和使用中得到体现。”8

 

其他组织也发布了鼓励值得信赖的 AI 的框架和指导方针,包括白宫科技办公室(通过其AI 权利法案蓝图)以及德勤(链接位于 ibm.com 以外)和 IBM 等公司。

 

值得信赖的 AI、合乎道德的 AI 与负责任的 AI 对比

值得信赖的 AI、合乎道德的 AI 和负责任的 AI 这三个词经常交替使用。此外,由于每个概念的定义可能因来源而异,而且往往存在严重的重叠,因此对这 3 个概念进行结论性的区分可能具有挑战性。

例如,值得信赖的 AI 和合乎道德的 AI 的常见定义将公平和隐私等原则列为每个概念的基础。同样,负责任和透明也是值得信赖的 AI 和负责任的 AI 通常具有的属性。

辨别这 3 个基于 AI 的概念的一种方法是超越其核心原则,转而关注它们的使用方式:

  • 值得信赖的 AI 通常被认为是可以实现的;它是与用户建立信任的 AI。
  • 与此相反,道德 AI 被描述为在设计和开发过程中将道德因素—反映人类价值观和道德标准—嵌入其中的 AI 系统。
  • 负责任的 AI 可以理解为将这些道德规范嵌入 AI 应用程序和工作流程的实际方法。
小球在轨道上滚动的三维设计

最新的 AI 新闻和洞察分析


在每周的 Think 时事通讯中,提供有关 AI、云等的专家精选的洞察分析和新闻。

实现值得信赖的 AI 的战略

各组织可以采取重要措施,帮助确保其 AI 系统(包括 AI 算法和数据集)的运行符合值得信赖的 AI 的原则。

评估:评估 AI 支持的业务流程可以帮助企业确定在不同的可信度指标上还有哪些需要改进的地方。

持续监控:通过持续监控 AI 偏见和模型漂移等问题,组织可以主动解决不公平或不准确的流程或输出,从而支持公平性和可靠性。

风险管理:实施风险管理框架和工具,可以检测并最大限度地减少安全漏洞和隐私侵犯问题,以增强 AI 的健壮性。

文档:整个数据科学和 AI 生命周期的自动化文档可用于行业和监管审计,实现问责制和透明度。

AI 治理框架:人工智能治理框架包括数据和模型管理程序,有助于确保组织内的开发人员和数据科学家遵守内部标准和政府法规。

AI 治理软件和开源工具包可以帮助组织采取这些以及其他步骤,来提高其 AI 系统的可信度。通过采取正确的措施和保障措施,企业可以在利用 AI 的力量的同时最大限度地降低风险。

 
脚注

1 ”Workday 全球调查:98% 的 CEO 表示他们的组织会从实施 AI 中受益,但信任仍然是一个令人担忧的问题。Workday.2023 年 9 月 14 日。

2 “在产品和服务描述中揭示‘人工智能 (AI)’技术的存在对购买意向的不利影响:情感信任的中介作用和感知风险的调节作用。”《酒店营销与管理杂志》。2024 年 6 月 19 日。

3 “从理论到实践:统一值得信赖的 AI 的分类标准。" Health Policy OPEN. 2024 年 9 月 5 日。

4OECD AI Principles: Accountability (Principle 1.5)”,OECD。2024 年 10 月 17 日访问。

5,7人工智能风险管理框架 (AI RMF 1.0)。”美国商务部美国国家标准与技术研究院。2023 年 1 月。

6Blueprint for an AI Privacy Bill of Rights: Safe and Effective Systems”,The White House Office of Science and Technology Policy。2024 年 10 月 17 日访问。

8欧盟人工智能法案:序言 27。”欧盟。2024 年 6 月 13 日。

相关解决方案
IBM watsonx.governance™

借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。

了解 watsonx.governance
人工智能治理解决方案

了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。

探索人工智能治理解决方案
人工智能治理咨询服务

借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。

了解 AI 治理服务
采取下一步行动

借助单一组合来指导、管理和监控您的 AI,以加速负责任、透明且可解释的 AI。

  1. 深入了解 watsonx.governance
  2. 预约实时演示