什么是《AI 权利法案》?

用手触摸屏幕的概念图像

作者

Tom Krantz

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

什么是《AI 权利法案》?

 《AI 权利法案》 是美国政府发布的一个框架,旨在帮助保护 美国人 在 人工智能 (AI)  时代的公民权利 。

2022 年 10 月,白宫科学技术政策办公室 (OSTP) 在一份题为“人工智能权利的法案蓝图:让自动化系统为美国人民服务”的文件中提出了《AI 权利法案》。《AI 权利法案》也被称为“蓝图”,是在与各界学者、人权组织、非营利组织和私营部门的公司协商后制定的。

 《AI 权利法案》 旨在支持在部署和管理自动化系统时制定保护公民权利和促进民主价值观的政策和做法。为此,《蓝图》提出了五项原则,以降低算法歧视等潜在风险。 它还解决了在医疗保健、金融服务等领域部署 AI 可能带来的获取关键资源或服务的问题。

《AI 权利法案》包含五项核心原则,有助于指导 AI 系统的设计、使用和部署。每项原则都提供了具体的考虑因素,说明了人们的公民权利(例如言论自由、投票权或隐私权)可能受到威胁的各种情况。

虽然蓝图不具有约束力,也不强制要求遵守核心原则,但其目的是在现有法律或政策尚未提供指导的情况下,为 AI 相关政策决定提供参考。

小球在轨道上滚动的三维设计

最新的 AI 新闻 + 洞察分析

在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。 

《AI 权利法案》适用于哪些 AI 系统?

AI 权利法案适用于有可能对美国人民的权利、机会或获得关键资源或服务产生重大影响的自动化系统。可能属于《AI 权利法案》适用范围的自动化系统类型包括但不限于可能对以下方面产生影响的系统:

公民权利、自由和隐私: 这包括与言论有关的系统(如自动内容节制工具);监控和 刑事司法 系统 算法 (如自动车牌识别器);与投票有关的系统(如签名比对工具);以及对隐私有潜在影响的系统(如广告定向系统)。

机会均等: 这包括与教育相关的系统(例如,剽窃检测软件);与住房相关的系统(例如,租户筛选 算法);以及与就业相关的系统(例如,招聘或解雇 算法)。

获取关键资源和服务: 这包括健康和医疗保险技术(例如 AI 辅助诊断工具);金融系统 算法 (例如信用评分系统);影响社区安全的系统(例如电网控制);以及与获取福利或服务或处罚分配相关的系统(例如欺诈检测 算法)。

AI 学院

AI 领域的信任、透明度和治理

AI 信任可以说是 AI 领域最重要的话题。这个话题会让人不知所措,也是情理之中的事情。我们将解析幻觉、偏见和风险等问题,并分享以合乎道德、负责且公平的方式采用 AI 的步骤。

为什么《AI 权利法案》很重要?

随着机器学习 (ML) 和自然语言处理 (NLP) 等技术变得越来越复杂,AI 的用例也越来越多。Ernst and Young 的一项研究显示,90% 的受访者表示他们在工作中使用 AI。然而,AI 的广泛应用也带来了与透明度偏见数据隐私相关的新道德挑战。例如:

  •  执法部门 使用的面部识别 软件 (FRS) 可能容易产生偏见。研究人员已经证实了几起因 人工智能而导致的身份识别错误案例,其中大部分涉及 被错误指控的黑人。2

  • 当 自动系统 错误地感知到某种模式,并做出无意义或不准确的反应时,就会产生 AI 幻觉 。有一次,研究人员要求 ChatGPT 提供有关两种疾病发病机制的信息。AI 提供了一篇详尽的论文,并附有引文和 PubMed ID。经过事实核查,研究人员发现这些论文是捏造的,ID 是从其他论文中提取的。3

  • 在  IBM 对高级管理层进行的一项研究 中,目前只有 24% 的生成式 AI 项目有保障 措施。事实上,近 70% 的受访者表示,创新优先于安全。

为了应对这些挑战, AI 开发人员需要围绕 负责任地使用 AI  制定指南和道德框架。负责任的 AI  是一套用于指导 AI 设计、开发、部署和 使用的原则。它考虑了  AI 系统 更广泛的社会影响,以及使 AI 符合 利益相关者 价值观、法律标准和道德原则所需的措施。

该蓝图 旨在将 负责任的 AI  最佳实践纳入一个综合框架,以便社会能够充分利用 AI 工具的潜力,同时又不损害人们的基本 公民自由。

《AI 权利法案》的五项原则

《AI 权利法案》包含五项原则,其制定时充分考虑了美国公众的公民权利。这五项原则包括:

  • 安全 有效的系统
  • 算法歧视保护
  • 数据隐私
  • 通知和解释
  • 人的选择、考虑和退路

安全 有效的系统

该原则指出,“应保护人们不受不安全或无效的 AI 系统的影响”。为了与该原则保持一致,《蓝图》建议开发人员与不同社区、利益相关者和领域专家合作,共同考虑 AI 系统的风险。该原则还建议对系统进行部署前测试、风险识别缓解以及持续监测,以提高安全性和有效性。根据《蓝图》,任何证实系统安全有效的独立评估和报告结果都应尽可能公布于众。

算法歧视保护

该原则指出,人们"不应受到 算法的歧视,系统的使用和设计应 公平"。根据 《AI 权利法案》,当 自动化系统 基于种族、性取向、 残疾 状况和其他受法律保护的特征对人们产生不利影响时,就会发生 算法 歧视。为纠正这一问题,该原则建议 自动化系统 的创建者使用 公平评估、代表性数据和差异测试等措施,以保护 高风险 个人和社区。该原则还鼓励独立的第三方 审计。

数据隐私

该原则指出,人们“应通过内置的保护措施免受滥用数据行为的侵害”,并且“应有权决定如何使用有关[他们]的数据”。为了与该原则保持一致,《蓝图》建议 AI 开发者通过设计选择来保护用户及其隐私,这有助于确保收集个人身份信息 (PII) 是绝对必要的。该原则还建议创作者保持许可和同意请求简短易懂,并尊重有关数据使用、访问、传输和删除的决定。

对于工作、健康、 刑事司法 等敏感信息,需要加强保护和限制。《蓝图》还指出,应加强对监控技术的监督,以保护公民的隐私和公民自由。

通知和解释

该原则规定,人们“应知道正在使用自动化系统,并了解该系统如何以及为何有助于产生影响[他们]的结果”。《人工智能权利法案》规定,自动化系统的设计者、开发者和部署者应使用通俗易懂的语言解释系统的功能和自动化的作用。此外,该原则还建议,自动化系统在使用中应发出通知,并清楚地解释它如何以及为何有助于产生影响个人的结果。

人的选择、考虑和 退路

该原则规定,人们"应能在适当的情况下选择退出,并能联系到能迅速考虑和补救所遇到问题的人"。根据 《蓝图》,确定什么是"适当的"应基于具体情况下的"合理期望",并应侧重于确保广泛的可及性和防止 潜在的伤害。 该报告建议,那些希望符合这一原则的企业应通过后备和升级流程,及时提供人工考虑和补救措施,尤其是在自动化系统出现故障、产生错误或有人希望对其影响提出申诉时。

"从原则到实践"

与《蓝图》同时出版的 还有技术手册《从原则到实践》。它提供了政府、行业和社区在将五项原则纳入政策、实践或 自动化系统技术设计时可以采取的范例和步骤。

《AI 权利法案》及其技术附录共同解释了每项原则的重要性、对自动化系统的期望以及如何将每项原则付诸实践。所提供的示例不是批评或认可,而是旨在激励组织将保障措施纳入自己的 AI 运营和决策中。

《AI 权利法案》产生了什么影响?

 《AI 权利法案》 在 华盛顿 特区发布后,可能部分激励了一些联邦机构通过指导方针,以 负责任的方式使用 AI 。截至撰写本文时,包括商务部 (DOC) 和美国国家标准与技术研究院 (NIST) 在内的 12 个 美国政府机构都有 AI 方面的要求,涉及法律、政策和 国家安全。

2023 年 10 月 30 日, 拜登政府 发布 行政命令 ,为安全、可靠和值得信赖的 AI 制定新标准。在 6 个月后发布的新闻稿中,文化部宣布了几项执行 行政命令的计划。4

在州一级,决策者似乎正在使新立法在某些方面与蓝图保持一致。2021 年,纽约通过了一项法律,对雇主提出了要求,包括在招聘过程中使用  AI 技术 时要进行通知。目前有几个州对执法部门使用面部识别技术提出了要求。最近,加利福尼亚州 民权委员会 提出了《公平就业和住房法》(FEHA) 修正案,进一步使 FEHA 与 《AI 权利法案》保持一致。

在撰写本报告时,除美国外,还有 34 个国家制定了国家 AI 战略。值得注意的是, 欧盟  人工智能 法案 (EU AI 法案) 对欧盟开发或 使用 AI  进行了规范。该法案采取基于风险的监管方法,根据 AI 带来的风险对其适用不同的规则。

《AI 权利法案》如何与现有政策互动?

 《AI 权利法案》 中提出的一些保护措施已经是美国宪法的要求或美国现行法律的规定。例如,"数据隐私"原则中提到的政府监控已经受到法律要求和司法监督,而 民权法 的存在则是为了保护 美国人民免受歧视。

符合 《蓝图》 的其他 AI 标准包括

  • 经济合作与发展组织 (OECD) 2019 年关于 人工智能的建议。这包括美国通过的负责任地管理可信 AI 的原则。

  • 关于促进联邦政府使用 值得信赖的 人工智能 的第 13960 号 行政命令。其中规定了联邦政府 使用 AI 的原则。

  •  关于通过联邦政府促进种族平等和支持未得到充分服务的社区的第 13985 号 行政命令。

可以采取新的政策和做法,帮助确保 AI 权利法案 中的保护措施得到落实。《蓝图》承认,在某些情况下,可能需要对这些原则作出例外规定,以帮助确保遵守现有法律,符合具体用例的实际情况,或平衡相互竞争的公共利益。例如,我们鼓励执法部门和其他政府机构遵循《AI 权利法案》中规定的准则。但是,为了保护人民的权利和隐私,他们可能需要使用其他方法。

展望未来,随着世界各国对 负责任的 AI 采取更全面的方法, AI 权利法案 可能会在影响下一波政策方面发挥关键作用。

相关解决方案
IBM watsonx.governance™

借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。

了解 watsonx.governance
人工智能治理解决方案

了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。

探索人工智能治理解决方案
人工智能治理咨询服务

借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。

了解 AI 治理服务
采取下一步行动

借助单一组合来指导、管理和监控您的 AI,以加速负责任、透明且可解释的 AI。

深入了解 watsonx.governance 预约实时演示
脚注

组织如何阻止 AI 的使用激增,以免助长焦虑情绪,, 安永会计师事务所,2023 年 12 月。

人工智能让无辜者面临入狱风险,清白专案,Sanford,2024 年 2 月 14 日。

ChatGPT 中的人造幻觉:对科学写作的影响 ,美国国家医学图书馆,Muacevic,Adler,2023 年 2 月 19 日。

商务部宣布采取新行动落实拜登总统关于 AI 的行政命令,美国商务部,2024 年 4 月 29 日。

国家 AI 战略聚类分析 ,Brookings、Denford、Dawson、Desouza,2023 年 12 月 13 日。