什么是《欧盟人工智能法》(《EU AI 法》)?

2024 年 9 月 20 日

作者

Matt Kosinski

Writer

Mark Scapicchio

Content Director of Inbound and SEO for IBM.com

什么是《欧盟 AI 法案》?

《欧盟人工智能法案》,又称《欧盟 AI 法案》或《AI 法》,是一部管理欧盟 (EU)  人工智能  (AI) 开发和/或使用的法律。该法案采取基于风险的监管方法,根据 AI 带来的风险对其适用不同的规则。

被认为是全球首个全面的 AI 监管框架,欧盟 AI 法规禁止某些 AI 使用,并对其他 AI 实施严格的治理、风险管理和透明度要求。

该法案还为通用人工智能模型制定了规则,例如 IBM 的 Granite 和 Meta 的 Llama 3 开源基础模型。

处罚范围从 750 万欧元或全球年营业额的 1.5% 到 3500 万欧元或全球年营业额的 7% 不等,具体取决于违规类型。

正如 EU 的 《通用数据保护条例》(GDPR)  可以激励其他国家采取 数据隐私 法律一样,专家预计《欧盟 AI 法案》将刺激全球 人工智能治理 和 伦理 标准的发展。

小球在轨道上滚动的三维设计

最新的 AI 新闻 + 洞察分析

在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。 

《欧盟 AI 法案》适用于哪些对象?

《欧盟 AI 法案》适用于 AI 价值链中的多个运营商,例如提供商、部署者、进口商、分销商、产品制造商和授权代表。值得一提的是《欧盟 AI 法案》中对提供商、部署者和进口商的定义。

提供商

提供商是开发 AI 系统或通用 AI (GPAI) 模型,或者代表他们的开发,并以他们的名义或商标将其投入市场或将 AI 系统投入使用的人或组织。

该法案将 AI 系统广义地定义为:能够在一定程度上自主处理输入,以推断如何生成可影响物理或虚拟环境的输出(例如预测、建议、决策、内容)的系统。它将 GPAI 定义为具有显著通用性的 AI 模型,能够胜任各种不同的任务,并可集成到各种下游 AI 系统或应用程序中。例如,一个基础模型就是一个 GPAI;建立在该模型上的聊天机器人生成式 AI 工具就是一个 AI 系统。

部署者

部署者是使用 AI 系统的人或组织。例如,使用第三方 AI 聊天机器人来处理客户服务咨询的组织是部署者。

进口商

进口商是指位于或设立在欧盟的个人和组织,他们将设立在欧盟以外的个人或公司的 AI 系统引入欧盟市场。

欧盟以外的应用程序

《欧盟 AI 法案》也适用于欧盟以外的 AI 供应商和部署者,如果他们的 AI 或 AI 的输出在欧盟使用。

例如,假设欧盟境内的一家公司将数据发送给欧盟境外的一家 AI 提供商,后者使用 AI 处理数据,然后将输出结果发欧盟境内的公司使用。由于提供商的 AI 系统的输出在欧盟使用,因此提供商受《EU AI 法》的约束。

在欧盟提供 AI 服务的欧盟境外提供商必须在欧盟指定授权代表,以代表其协调合规工作。

例外情况

虽然该法案适用范围广泛,但 AI 的部分用途不受限制。纯粹个人使用的 AI,以及仅用于科学研究和开发的 AI 模型和系统,都属于 AI 免责用途。

AI 学院

AI 领域的信任、透明度和治理

AI 信任可以说是 AI 领域最重要的话题。这个话题会让人不知所措,也是情理之中的事情。我们将解析幻觉、偏见和风险等问题,并分享以合乎道德、负责且公平的方式采用 AI 的步骤。

《欧盟 AI 法案》规定了哪些要求?

《EU AI 法》根据风险等级对 AI 系统进行监管。这里的风险指的是潜在伤害的可能性和严重程度。其中最重要的条款包括:

  • 禁止某些被认为构成不可接受风险的 AI 做法,

  • 开发和部署某些高风险 AI 系统的标准,

  • 通用 AI (GPAI) 模型的规则。

不属于《欧盟 AI 法案》中风险类别的 AI 系统不受该法案要求的约束(这些系统通常被称为“最低风险”类别),尽管有些系统可能需要满足透明度义务,并且必须遵守其他现行法律。 相关示例包括电子邮件的垃圾邮件过滤器和电子游戏。当下许多常见的 AI 用途都属于这一类。

值得注意的是,《欧盟 AI 法案》中有关实施的很多更加精细的细节仍在敲定中。例如,该法案指出,欧盟委员会将发布有关如上市后监测计划和训练数据摘要等要求的进一步指导方针。

禁止的 AI 实践

《EU AI 法》明确列出了某些禁止的 AI 实践,这些实践被认为会带来不可接受的风险。例如,该法案认为,开发或使用 故意操纵人们 做出有害选择的 AI 系统会给用户带来不可接受的风险,属于禁止的 AI 实践。

欧盟委员会可以修改该法案中禁止实践清单,因此未来可能会禁止更多的 AI 实践。

本文发表时禁止的 AI 实践的部分清单包括:

  • 社会评分系统——根据个人的社会行为对其进行评估或分类的系统——导致在与原始数据收集无关的社会环境中受到有害或不利的待遇,并且没有正当理由或与行为的严重性不相称

  • 工作场所和教育机构中的情绪识别系统,除非这些工具用于医疗或安全目的

  • AI 被用来利用人类的弱点(例如因年龄或残疾而导致的脆弱性)

  • 无针对性地从互联网或闭路电视 (CCTV) 上获取面部图像,用于面部识别数据库

  • 根据敏感特征识别个人身份的生物识别系统

  • 特定的预测性警务应用

  • 执法部门在公共场合使用实时远程生物识别系统(除非有例外情况,并且需要司法或独立行政当局的预先授权)。

高风险 AI 的标准

根据《EU AI 法》,如果 AI 系统是受该法案引用的特定欧盟法律(例如玩具安全法和体外诊断医疗器械法)监管的产品或产品的安全组件,则被视为高风险产品。

该法案还列出了通常被视为高风险的特定用途,包括使用的 AI 系统:

  • 在就业环境中,例如用于招聘应聘者、评估申请人和做出晋升决定的系统。

  • 在某些医疗设备中

  • 在某些教育和职业培训背景下

  • 在司法和民主程序中,例如旨在影响选举结果的系统

  • 确定获得私人或公共基础服务,包括评估公共福利资格和评估信用分数的系统。

  • 关键基础设施管理(如供水、供气和供电等)

  • 任何未被禁止的生物识别系统,但以验证个人身份为唯一目的的系统(例如,使用指纹扫描仪授权某人访问银行应用程序)除外。

对于此列表中包含的系统,如果 AI 系统不会对个人健康、安全或权利构成重大威胁,则可能例外。该法案指定了标准,必须满足一个或多个标准,才能触发例外情况(例如,当 AI 系统旨在执行狭窄的程序任务时)。如果依赖这种例外情况,提供商必须记录其对系统不具有高风险的评估,并且监管机构可以要求查看该评估。自动处理个人数据以评估或预测一个人生活某些方面的 AI 系统不属于例外情况,例如其产品偏好(剖析),这类系统始终被视为高风险系统。

与禁止的 AI 实践清单一样,欧盟委员会今后可能会更新高风险 AI 系统清单。

高风险 AI 系统的要求

高风险 AI 系统必须符合特定要求。其中部分示例包括:

  • 实施持续的风险管理系统来监控 AI 的整个生命周期。例如,提供商应减轻其系统预期用途所带来的合理可预见风险。

  • 采用严格的数据治理方法,确保训练、验证和测试数据符合特定的质量标准。例如,必须制定围绕数据收集过程和数据来源的治理以及防止和减轻偏见的措施。

  • 维护综合技术文档,包括系统设计规范、功能、限制和监管合规工作等具体信息。

对于特定类型的 AI,还有额外的透明度义务。例如:

  • 旨在直接与个人交互的 AI 系统应该被设计为告知用户他们正在与 AI 系统交互,除非个人从环境中可以明显看出这一点。例如,聊天机器人的设计应能够通知用户自己是聊天机器人。

  • 生成文本、图像或其他某些内容的 AI 系统必须使用机器可读的格式,将输出标记为由 AI 生成或操作。例如,这包括生成深度伪造的 AI——图像或视频被篡改,以显示某人做了或说了一些他们没做或没说的话。

高风险 AI 系统运营者的义务

我们在下文中强调了 AI 价值链中高风险 AI 系统的主要运营商(提供商和部署者)的一些义务。

高风险 AI 系统提供商的义务

高风险 AI 系统的提供商必须遵守的要求,包括:

  • 确保高风险 AI 系统符合该法案中概述的高风险 AI 系统的要求。例如,实施持续风险管理系统。

  • 建立质量管理体系。

  • 实施上市后监测计划,以监测 AI 系统的性能,并评估其在系统生命周期内的持续合规性。

高风险 AI 系统部署者的义务

高风险 AI 系统的部署者将承担包括以下义务:

  • 采取适当的技术和组织措施,确保按照使用说明使用此类系统。

  • 在其控制范围内,将自动生成的 AI 系统日志保存一段时间。

  • 对于使用高风险 AI 系统提供某些基本服务的部署者,例如提供公共服务的政府机构或私人组织,必须在首次使用某些高风险 AI 系统之前进行基本权利影响评估。

通用 AI (GPAI) 模型的规则

《EU AI 法》为通用 AI 模型 (GPAI) 制定了单独的规则。GPAI 模型的提供商需承担包括以下内容在内的义务:

  • 制定 遵守欧盟版权法的政策

  • 撰写并公开发布训练数据集的详细摘要。

如果 GPAI 模型被归类为构成系统性风险,则提供商将承担额外的义务。 系统性风险 是 GPAI 模型的高影响功能所特有的风险,由于其影响范围,或由于对公众健康、安全、公共安全、基本权利或整个社会的实际或可合理预见的负面影响,这种风险会对欧盟市场产生重大影响,并可能在整个价值链中大规模传播。 该法案将训练资源作为识别系统风险的一项标准之一——如果用于训练模型的累计计算能力超过 10^25 次浮点运算 (FLOP),则推定该模型具有高影响能力并构成系统风险。 欧盟委员会也可将某一模型归类为构成系统性风险的模型。

例如,构成系统性风险的 GPAI 模型(包括免费的开源模型)的提供商必须履行一些额外义务:

  • 记录并向欧盟 AI 办公室和相关国家或地区监管机构报告严重事件。

  • 实施充分的网络安全,以保护模型及其物理基础设施。

《欧盟 AI 法案》罚款

对于不遵守禁止的 AI 实践的组织,最高可处以 35,000,000 欧元或 7% 的全球年营业额,以较高者为准。

对于大多数其他违规行为,包括不遵守高风险 AI 系统要求的行为,组织最高可被罚款 15,000,000 欧元或全球年营业额的 3%,以金额较高者为准。

向当局提供不正确、不完整或误导性信息的组织可被处以最高 750 万欧元或全球年营业额 1% 的罚款,以金额较高者为准。

值得注意的是,《欧盟 AI 法案》对初创企业和其他中小型组织的罚款有不同的规定。对于这些企业,罚款金额为上述两种可能金额中的 较低者 。

《欧盟 AI 法案》何时生效?

该法律于 2024 年 8 月 1 日生效,其中的不同条款将分阶段生效。一些最值得注意的日期包括:

  • 自 2025 年 2 月 2 日起,禁止的 AI 实践的禁止令将生效。

  • 自 2025 年 8 月 2 日起,通用 AI 规则将针对新 GPAI 生效。2025 年 8 月 2 日之前投放市场的 GPAI 模型的提供商必须在 2027 年 8 月 2 日之前遵守相关规定。

  • 自 2026 年 8 月 2 日起,高风险 AI 系统规则将生效。

  • 自 2027 年 8 月 2 日起,将适用于受欧盟特定法律监管的产品或产品安全组件的 AI 系统的规则。
相关解决方案
IBM watsonx.governance™

借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。

了解 watsonx.governance
人工智能治理咨询服务

借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。

深入了解 AI 治理服务
IBM OpenPages

借助统一的 GRC 平台,简化风险管理和合规监管的流程。

深入了解 OpenPages
采取后续步骤

借助单一组合来指导、管理和监控您的 AI,以加速负责任、透明且可解释的 AI。

深入了解 watsonx.governance 预约实时演示
脚注

客户负责确保对所有适用法律和法规的合规性。IBM 不提供任何法律咨询,也不声明或保证其服务或产品确保客户遵循任何法律或法规。