了解一项科技的运作原理通常是信任其效能的关键。但许多 AI 和机器学习 (ML) 系统(例如深度学习模型)的运作方式就像是名副其实的黑匣;它们采集数据并创建输出,而对于如何获得这些输出,几乎是不透明的。
结果,信任缺失比比皆是。2023 年的一项调查发现,超过 40% 的企业领导者表达了对 AI 可信度的担忧。1与此同时,消费者也表现出对 AI 的不信任:2024 年的一项研究发现,在产品标签中包含“人工智能”一词,会降低购物者购买该产品的可能性。2
AI 系统在高风险用例中产生错误或有害结果的现实例子,进一步加剧了对 AI 信任的担忧。在一个著名的医疗案例中,AI 模型未能可靠地诊断出败血症。虽然该模型在训练环境中表现良好,但却无法检测出三分之二以上医院患者的败血症。3
在其他情况下,AI 模型显示出有偏见的算法决策,包括预测性警务系统不成比例地针对少数族裔社区,以及求职者跟踪系统偏爱男性求职者而非女性求职者。此外,还有一些安全问题,比如 AI 聊天机器人无意中泄露敏感的个人数据,以及黑客利用 AI 模型的漏洞窃取企业专有信息。
当 AI 模型表现不佳或产生有害结果时,它不仅会破坏人们对这些模型的信任,还会破坏人们对全体人工智能的信任,并可能阻碍 AI 未来的发展和采用。实现值得信赖的 AI 系统并支持未来 AI 发展,意味着要揭开所谓“AI 黑匣”中的奥秘。这使得利益相关者能够依靠他们的 AI 应用程序提供可靠、准确的结果,同时最大限度地降低结果有偏见或与初衷不符的风险。
要获得值得信赖的 AI,不同的组织和框架强调不同的指导原则和目标。关于值得信赖的 AI,频繁提及的原则包括:
AI 的问责制要求 AI 参与者对 AI 系统在整个生命周期的正常运行负责。这包括参与开发、部署或运营 AI 技术的个人和组织。4
可靠性可定义为在特定条件下,在一定时间内按预期或要求运行而不发生故障的能力。可靠的 AI 系统在预期条件下使用时,应在一定时期内(可能包括这些系统的整个使用寿命)提供正确的结果。5
安全、强大的 AI 系统具有保护机制,可抵御对抗性攻击和未经授权的访问,从而将网络安全风险和漏洞危害性降至最低。它们可以在异常条件下运行而不会造成意外损害,并在发生意外事件后恢复正常功能。
安全的 AI 系统不会危及人类生命、健康、财产或环境。这些措施旨在主动保护人们免受伤害,并包括减少不安全结果的措施,包括可能停止使用系统。6
缺乏可信品质的 AI 系统会带来各种风险。美国商务部下属的美国国家标准与技术研究院 (NIST) 制定了一个框架,该框架已成为 AI 风险管理的基准。它将 AI 系统的潜在危害风险分为以下几类:7
该类别包括对个人的公民自由、权利、身体或心理安全或经济机会构成的损害。它还包括因歧视对群体造成的影响,以及以损害民主参与或教育机会的形式对社会造成的影响。
这一类别指的是对组织业务运营的损害、安全漏洞或金钱损失造成的损害,以及对组织声誉的损害。
这一类别包括对"相互关联和相互依存的要素和资源"造成的损害。NIST 特别提到了对全球金融体系、供应链或"相互关联的系统"以及自然资源、环境和地球的危害。
AI 系统有偏见或不准确的输出会造成多重伤害。回到前面的例子,有偏见的申请人跟踪系统会损害个人的经济机会,同时也会损害组织的声誉。如果大型语言模型 (LLM) 被诱骗运行恶意软件,导致公司运营瘫痪,则可能对公司及其所属的供应链造成损害。
值得信赖的 AI 系统可能有助于防止这种可怕的情况和后果。根据 NIST 的说法,"值得信赖的 AI 系统及其负责任的使用可以降低负面风险,并为人类、组织和生态系统带来益处"。
近年来,出现了不同的框架来指导 AI 提供商和用户开发、部署和运营值得信赖的 AI 系统。这些框架包括:
2023 年 1 月发布的《NIST 人工智能风险管理框架》(AI RMF) 概述了 AI 生命周期中的 AI 风险以及值得信赖的 AI 系统的特征。该框架还概述了帮助各组织管理此类系统的具体行动,包括测试、评估、验证和确认任务。
该自愿性框架适用于任何公司或地区,但 NIST 承认,并非所有值得信赖的 AI 特征都适用于各种环境。该框架鼓励利用人类的判断力来选择适用的可信度指标,并考虑到在优化一种或另一种值得信赖的 AI 特性时,通常需要进行权衡。2024 年 7 月,NIST 发布了《AI RMF》的配套资源,重点关注生成式 AI。
OECD 的 AI 原则促进在使用 AI 时尊重人权和民主价值观。OECD 框架于 2019 年 5 月通过,并于 2024 年 5 月更新,其中包括基于价值观的原则和对决策者的建议。OECD 称这些建议是首个政府间 AI 标准,全球有 47 个国家加入,包括美国、欧盟国家以及南美和亚洲国家。
欧盟委员会 AI 高级别专家组于 2019 年 4 月发布了欧盟指导方针,该指导方针侧重于 AI 伦理,并强调在欧盟发展 AI 要"以人为本"。指导方针包括 7 项伦理原则,如"人的能动性和监督"以及"社会和环境福祉"。次年,该组织发布了值得信赖的 AI 评估清单(链接位于 ibm.com 以外),帮助组织评估其 AI 系统。
虽然指导方针本身不具有约束力,但后来在具有里程碑意义的EU AI 法案中被引用,该法案对欧盟开发或使用 人工智能进行了规范。该法案文本指出,欧盟 AI 伦理原则"应尽可能在 AI 模型的设计和使用中得到体现。”8
值得信赖的 AI、合乎道德的 AI 和负责任的 AI 这三个词经常交替使用。此外,由于每个概念的定义可能因来源而异,而且往往存在严重的重叠,因此对这 3 个概念进行结论性的区分可能具有挑战性。
例如,值得信赖的 AI 和合乎道德的 AI 的常见定义将公平和隐私等原则列为每个概念的基础。同样,负责任和透明也是值得信赖的 AI 和负责任的 AI 通常具有的属性。
辨别这 3 个基于 AI 的概念的一种方法是超越其核心原则,转而关注它们的使用方式:
各组织可以采取重要措施,帮助确保其 AI 系统(包括 AI 算法和数据集)的运行符合值得信赖的 AI 的原则。
评估:评估 AI 支持的业务流程可以帮助企业确定在不同的可信度指标上还有哪些需要改进的地方。
持续监控:通过持续监控 AI 偏见和模型漂移等问题,组织可以主动解决不公平或不准确的流程或输出,从而支持公平性和可靠性。
风险管理:实施风险管理框架和工具,可以检测并最大限度地减少安全漏洞和隐私侵犯问题,以增强 AI 的健壮性。
文档:整个数据科学和 AI 生命周期的自动化文档可用于行业和监管审计,实现问责制和透明度。
AI 治理框架:人工智能治理框架包括数据和模型管理程序,有助于确保组织内的开发人员和数据科学家遵守内部标准和政府法规。
AI 治理软件和开源工具包可以帮助组织采取这些以及其他步骤,来提高其 AI 系统的可信度。通过采取正确的措施和保障措施,企业可以在利用 AI 的力量的同时最大限度地降低风险。
1 ”Workday 全球调查:98% 的 CEO 表示他们的组织会从实施 AI 中受益,但信任仍然是一个令人担忧的问题。Workday.2023 年 9 月 14 日。
2 “在产品和服务描述中揭示‘人工智能 (AI)’技术的存在对购买意向的不利影响:情感信任的中介作用和感知风险的调节作用。”《酒店营销与管理杂志》。2024 年 6 月 19 日。
3 “从理论到实践:统一值得信赖的 AI 的分类标准。" Health Policy OPEN. 2024 年 9 月 5 日。
4“OECD AI Principles: Accountability (Principle 1.5)”,OECD。2024 年 10 月 17 日访问。
5,7 “人工智能风险管理框架 (AI RMF 1.0)。”美国商务部美国国家标准与技术研究院。2023 年 1 月。
6“Blueprint for an AI Privacy Bill of Rights: Safe and Effective Systems”,The White House Office of Science and Technology Policy。2024 年 10 月 17 日访问。
8 “欧盟人工智能法案:序言 27。”欧盟。2024 年 6 月 13 日。
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。