《欧盟人工智能法案》,又称《欧盟 AI 法案》或《AI 法》,是一部管理欧盟 (EU) 人工智能 (AI) 开发和/或使用的法律。该法案采取基于风险的监管方法,根据 AI 带来的风险对其适用不同的规则。
被认为是全球首个全面的 AI 监管框架,欧盟 AI 法规禁止某些 AI 使用,并对其他 AI 实施严格的治理、风险管理和透明度要求。
该法案还为通用人工智能模型制定了规则,例如 IBM 的 Granite 和 Meta 的 Llama 3 开源基础模型。
处罚范围从 750 万欧元或全球年营业额的 1.5% 到 3500 万欧元或全球年营业额的 7% 不等,具体取决于违规类型。
正如 EU 的 《通用数据保护条例》(GDPR) 可以激励其他国家采取 数据隐私 法律一样,专家预计《欧盟 AI 法案》将刺激全球 人工智能治理 和 伦理 标准的发展。
《欧盟 AI 法案》适用于 AI 价值链中的多个运营商,例如提供商、部署者、进口商、分销商、产品制造商和授权代表。值得一提的是《欧盟 AI 法案》中对提供商、部署者和进口商的定义。
部署者是使用 AI 系统的人或组织。例如,使用第三方 AI 聊天机器人来处理客户服务咨询的组织是部署者。
进口商是指位于或设立在欧盟的个人和组织,他们将设立在欧盟以外的个人或公司的 AI 系统引入欧盟市场。
《欧盟 AI 法案》也适用于欧盟以外的 AI 供应商和部署者,如果他们的 AI 或 AI 的输出在欧盟使用。
例如,假设欧盟境内的一家公司将数据发送给欧盟境外的一家 AI 提供商,后者使用 AI 处理数据,然后将输出结果发回欧盟境内的公司使用。由于提供商的 AI 系统的输出在欧盟使用,因此提供商受《EU AI 法》的约束。
在欧盟提供 AI 服务的欧盟境外提供商必须在欧盟指定授权代表,以代表其协调合规工作。
虽然该法案适用范围广泛,但 AI 的部分用途不受限制。纯粹个人使用的 AI,以及仅用于科学研究和开发的 AI 模型和系统,都属于 AI 免责用途。
《EU AI 法》根据风险等级对 AI 系统进行监管。这里的风险指的是潜在伤害的可能性和严重程度。其中最重要的条款包括:
不属于《欧盟 AI 法案》中风险类别的 AI 系统不受该法案要求的约束(这些系统通常被称为“最低风险”类别),尽管有些系统可能需要满足透明度义务,并且必须遵守其他现行法律。 相关示例包括电子邮件的垃圾邮件过滤器和电子游戏。当下许多常见的 AI 用途都属于这一类。
值得注意的是,《欧盟 AI 法案》中有关实施的很多更加精细的细节仍在敲定中。例如,该法案指出,欧盟委员会将发布有关如上市后监测计划和训练数据摘要等要求的进一步指导方针。
《EU AI 法》明确列出了某些禁止的 AI 实践,这些实践被认为会带来不可接受的风险。例如,该法案认为,开发或使用 故意操纵人们 做出有害选择的 AI 系统会给用户带来不可接受的风险,属于禁止的 AI 实践。
欧盟委员会可以修改该法案中禁止实践清单,因此未来可能会禁止更多的 AI 实践。
本文发表时禁止的 AI 实践的部分清单包括:
根据《EU AI 法》,如果 AI 系统是受该法案引用的特定欧盟法律(例如玩具安全法和体外诊断医疗器械法)监管的产品或产品的安全组件,则被视为高风险产品。
该法案还列出了通常被视为高风险的特定用途,包括使用的 AI 系统:
对于此列表中包含的系统,如果 AI 系统不会对个人健康、安全或权利构成重大威胁,则可能例外。该法案指定了标准,必须满足一个或多个标准,才能触发例外情况(例如,当 AI 系统旨在执行狭窄的程序任务时)。如果依赖这种例外情况,提供商必须记录其对系统不具有高风险的评估,并且监管机构可以要求查看该评估。自动处理个人数据以评估或预测一个人生活某些方面的 AI 系统不属于例外情况,例如其产品偏好(剖析),这类系统始终被视为高风险系统。
与禁止的 AI 实践清单一样,欧盟委员会今后可能会更新高风险 AI 系统清单。
高风险 AI 系统必须符合特定要求。其中部分示例包括:
对于特定类型的 AI,还有额外的透明度义务。例如:
我们在下文中强调了 AI 价值链中高风险 AI 系统的主要运营商(提供商和部署者)的一些义务。
高风险 AI 系统的提供商必须遵守的要求,包括:
高风险 AI 系统的部署者将承担包括以下义务:
《EU AI 法》为通用 AI 模型 (GPAI) 制定了单独的规则。GPAI 模型的提供商需承担包括以下内容在内的义务:
如果 GPAI 模型被归类为构成系统性风险,则提供商将承担额外的义务。 系统性风险 是 GPAI 模型的高影响功能所特有的风险,由于其影响范围,或由于对公众健康、安全、公共安全、基本权利或整个社会的实际或可合理预见的负面影响,这种风险会对欧盟市场产生重大影响,并可能在整个价值链中大规模传播。 该法案将训练资源作为识别系统风险的一项标准之一——如果用于训练模型的累计计算能力超过 10^25 次浮点运算 (FLOP),则推定该模型具有高影响能力并构成系统风险。 欧盟委员会也可将某一模型归类为构成系统性风险的模型。
例如,构成系统性风险的 GPAI 模型(包括免费的开源模型)的提供商必须履行一些额外义务:
对于不遵守禁止的 AI 实践的组织,最高可处以 35,000,000 欧元或 7% 的全球年营业额,以较高者为准。
对于大多数其他违规行为,包括不遵守高风险 AI 系统要求的行为,组织最高可被罚款 15,000,000 欧元或全球年营业额的 3%,以金额较高者为准。
向当局提供不正确、不完整或误导性信息的组织可被处以最高 750 万欧元或全球年营业额 1% 的罚款,以金额较高者为准。
值得注意的是,《欧盟 AI 法案》对初创企业和其他中小型组织的罚款有不同的规定。对于这些企业,罚款金额为上述两种可能金额中的 较低者 。
该法律于 2024 年 8 月 1 日生效,其中的不同条款将分阶段生效。一些最值得注意的日期包括:
了解《欧盟 AI 法案》对业务的影响,还有如何做好准备、降低风险以及平衡监管与创新。
了解生成式 AI 的新挑战、治理 AI 与 ML 模型的需求,以及构建可信、透明且可解释的 AI 框架的步骤。
了解如何使用面向生成式 AI 模型的 AI 产品组合来推动道德与合规实践。
更深入地了解如何利用 watsonx.governance 来确保公平性、管理偏差、保持质量和增强可解释性。
我们对 2,000 家组织进行了调查,旨在了解他们的 AI 计划,以发现哪些方法有效、哪些方法无效,以及如何才能取得领先。
了解如何为您的用例选择最合适的 AI 基础模型。
客户负责确保对所有适用法律和法规的合规性。IBM 不提供任何法律咨询,也不声明或保证其服务或产品确保客户遵循任何法律或法规。