AI 安全性是指有助于确保 AI 技术的设计和使用方式能够造福人类,并最大限度地减少任何潜在伤害或负面结果的实践和原则。
随着 AI 系统变得日益复杂,它们越来越深入地融入到人们的生活以及基础设施、金融和国家安全等关键现实领域中。对于使用它们的组织和整个社会,这些技术既发挥积极的作用,也造成消极的影响。
人们对 AI 负面影响的担忧在日益加剧。2023 年的一项调查发现,52% 的美国人对人工智能使用量增加的担忧多于兴奋。1 另一项调查发现,83% 的受访者担心 AI 可能会意外导致灾难性事件。2
其他研究表明,这些担忧并非毫无根据:2024 年的一份报告发现,44% 的受访者表示,他们的组织由于使用 AI 遭受了负面影响(例如不准确或网络安全问题)。3 安全工作往往被视为亡羊补牢:根据 AI 安全中心的《2023 年影响报告》,只有 3% 的技术研究侧重于如何提高 AI 的安全性。4
对整个社会来说,AI 安全措施是保护公共安全、隐私和基本权利的必要措施。出现偏差、不透明或不符合人类价值观的 AI 系统可能会延续或加剧社会不平等。
专家们还担心,一些高级 AI 系统可能变得像人类一样智能甚至比人类更聪明。通用人工智能 (AGI) 是指能够像人类那样理解、学习和执行思考任务的潜在 AI 系统。超人工智能 (ASI) 是指智力范围和认知功能比任何人类都更先进的假想 AI 系统。AGI 和 ASI 的发展让人们担忧,如果不符合人类价值观或接受人类监督,这些系统将是危险的。批评者认为,由于自主权过大,这些系统将对人类构成生存威胁。
从商业角度来看,安全的 AI 有助于建立消费者信任、规避法律责任以及避免糟糕的决策。各个组织应当采取措施,以确保 AI 的使用符合他们的价值观,这样可以避免对自己和客户产生负面影响。
AI 风险可以分为几种类型,每种类型都需要不同的 AI 安全措施和风险管理工作。
AI 系统可以延续或放大社会偏见。当使用不完整或误导性的数据和输入对 AI 进行训练时,就会产生算法偏差结果。这样可能做出不公平的决策。例如,使用歧视性数据训练的 AI 工具不太可能为具有某些背景的申请人批准抵押贷款,或者更有可能建议雇用男性求职者而不是女性求职者。
AI 系统有可能以不恰当的方式访问、泄露或滥用个人数据,从而导致隐私问题。敏感数据一旦泄露,AI 系统的创建者或用户就可能被追究责任。
AI 系统(尤其是作为自主代理运行的 AI 系统)的结果可能是不可预测的。它们的行为也可能有害。如果它们能够独立做出决定,可能变得难以阻止。如果不进行人为控制,可能无法干预或关闭行为不当的 AI 系统。
如果管理不当,AGI、ASI 和其他极其先进的 AI 系统的行为方式可能会危及人类或者破坏全球系统。AI 竞赛类似于军备竞赛,它的危险性会对地缘政治的稳定性带来威胁。
AI 还可能被滥用于大规模社会操纵或网络战。2023 年,非营利组织 AI 安全中心 (CAIS) 发布了一份简短的声明,得到了多名 AI 研究人员和领导者的支持。这份声明中写道:“降低因 AI 导致的灭绝风险,此举应与流行病和核战争等社会层面的其他风险一起成为全球的优先事项。”5
尽管 AI 风险可能造成意想不到的后果和错误,但不良行为者也可能故意使用这项技术造成伤害。AI 可以用作网络攻击、误导信息活动、非法监控甚至人身伤害的武器。这些威胁同时存在于个人层面和社会层面。
AI 领导者和企业正在实施各种实践,以帮助负责任地开发和使用 AI 技术。AI 安全措施包括:
算法可以延续或放大对它们进行训练的数据中存在的偏差。为了解决这个问题,各个企业正在斥资解决算法偏差。多样化数据集收集、算法公平性评估和去偏差方法等技术有助于识别潜在问题。
严格的测试和验证流程可以帮助 AI 系统抵御危害,并能够识别技术风险。对抗性测试、压力测试和形式验证等技术有助于确保 AI 工具和模型正常运行且不会出现不良行为。
很多 AI 模型,尤其是大型语言模型 (LLM),都是“黑匣”,人类很难解读它们做出的决策。如果决策过程不透明,用户就不太可能相信它们的结果和建议。可解释的 AI (XAI) 旨在阐明复杂的 AI 系统背后的不透明过程,并侧重于可解释性以展示它们是如何得出结果的。
虽然自动化是 AI 对很多企业的一个吸引力,但出于安全原因,维持人工控制也很重要。这意味着要让人类操作员监控 AI 系统的性能,在必要时进行干预,并在关键情况下做出最终决策。人机回圈方法有助于确保真人对 AI 系统的行为负责。
实施加密、访问控制和异常检测等强大的安全措施有助于保护 AI 系统免遭滥用或未经授权的访问。企业还可以投资于网络安全措施,以防止可能损害他们的 AI 系统完整性的网络攻击和网络威胁。
AI 安全性是一个复杂且不断变化的领域,需要研究人员、行业领导者和政策制定者进行协作。很多企业参与了行业联盟、研究计划和标准化工作,以分享知识、最佳实践和经验教训。通过协作,AI 社区可以开发出更强大、更可靠的安全措施。
AI 安全性研究需要很多利益相关者的共同努力。
AI 安全性始于负责设计、构建和测试 AI 系统的开发人员和工程师。他们可能侧重于基础问题,例如如何使 AI 的目标与人类价值观保持一致,以及如何创建透明且可解释的模型。他们还负责测试和验证模型和工具,以帮助确保它们正常运行。
IBM、OpenAI、Google DeepMind、Microsoft、Anthropic 等领先的 AI 开发公司在 AI 安全工作方面走在了时代的前列。他们投资于专门的 AI 安全团队、制定道德准则并遵守负责任的 AI 原则,以防止产生有害的结果。
有些公司还创建了框架和协议,以解决研究和部署阶段的风险,例如偏差检测工具和允许进行人工监督的系统。很多公司还参与了行业联盟,并分享知识以便为 AI 安全性制定全行业标准。
更广泛的 AI 治理工作是全球 AI 安全措施的重要组成部分。联合国、世界经济论坛以及经济合作与发展组织 (OECD) 等国际组织牵头发起了以 AI 伦理和安全性为重点的倡议。世界各地的各国政府也在制定 AI 安全规则和法规:
在美国,隶属于美国国家标准与技术研究院 (NIST) 的人工智能安全研究所 (AISI) 致力于解决安全问题。他们将工作重点放在推动研究和开发风险缓解措施等优先事项上。
在欧盟,《欧盟 AI 法案》包含多种安全标准和指南以及不合规处罚。此外,英国还成立了 AI 安全性研究所,以推动安全的 AI 开发工作。包括新加坡、日本和加拿大在内的其他几个国家或地区也在成立 AI 安全机构,以开展研究并为重点关注公共安全的开发和监管提供信息。
非政府组织 (NGO)、智库和其他团体的决策者和研究人员在努力解决安全问题。他们会考虑国家安全、人权和立法政策问题,并建议如何帮助 AI 开发工作与社会价值观和利益保持一致。他们会提高风险意识、制定道德准则、提高透明度并鼓励进行负责任的研究。
一些主要的 AI 安全性非营利组织和倡导团体包括:
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。
1 公众越来越关注人工智能在日常生活中的作用 ,皮尤研究中心,2023 年 8 月。
2 调查显示了对于 AI 风险的严重担忧 ,AI 政策研究所 (AIPI),2023 年 7 月。
3 2024 年初的 AI 现状 ,麦肯锡,2024 年 5 月。
4 2023 年影响报告 ,AI 安全中心,2023 年 11 月。
5 AI 风险声明 ,AI 安全中心,2023 年 3 月。