将负责任的 AI 原则应用于国防领域

团队成员围绕桌面屏幕展开研讨的协作场景

人工智能 (AI) 正在重塑社会生态,包括国家安全的基本范式。基于此认知,美国国防部于 2019 年成立联合人工智能中心(该机构已改组为数字与人工智能首席办公室),旨在开发有助于获得军事竞争优势、实现人本 AI 部署条件、增强国防行动敏捷性的 AI 解决方案。然而,国防部在扩大、采用和充分发挥 AI 潜力过程中面临的障碍,与私营部门的挑战具有高度相似性。

IBM 最近的一项调查发现,阻碍人工智能成功部署的主要障碍包括人工智能技能和专业知识有限、数据复杂性以及伦理问题。此外,根据 IBM 商业价值研究院的数据,79% 的高管表示 AI 伦理对其全企业 AI 战略非常重要,但不到 25% 的企业已将 AI 伦理的通用原则付诸实施。赢得对 AI 模型输出的信任是一个社会-技术挑战,需要社会-技术的解决方案。

国防领导人若要落实负责任地管理 AI,首先必须构建共同语义场——即指引安全负责任使用 AI 的通用文化准则——然后再实施降低风险的技术解决方案和防护措施。美国国防部可通过提升 AI 认知水平、与可信机构合作制定符合战略目标与价值观的治理框架,为此奠定坚实基础。

AI 素养是安全工作的必备素质

重要的是,员工必须了解如何部署 AI 以提高组织效率。但同样重要的是,他们要深刻理解 AI 的风险和局限性,以及如何实施适当的安全措施和道德准则。对于国防部或任何政府机构来说,这些都是基本要求。

量身定制的 AI 学习路径可以帮助识别技能缺口和所需培训,使人员获得其特定角色所需的知识。整个机构范围的 AI 素养对所有人员都是必不可少的,以便他们能够快速评估、描述并应对快速传播且危险的威胁,例如虚假信息和深度伪造内容。

IBM 在组织内部以定制化方式应用 AI 素养培训,因为关键素养的定义会根据个人的职位而有所不同。

支持战略目标并与价值观保持一致

作为值得信赖的人工智能领域的领导者,IBM 在制定治理框架方面拥有丰富的体验,这些框架能够指导负责任地使用 AI,使其与客户组织的价值观保持一致。IBM 还在自身内部制定了 AI 使用框架,为政策立场提供指导,例如在面部识别技术等方面的应用。

AI 工具现已被用于国家安全领域,并帮助防御数据泄露网络攻击。但 AI 也支持国防部的其他战略目标。它可以增强员工队伍实力,帮助他们提高效率,并帮助他们 重新学习技能。它可以帮助打造有弹性的供应链,以支持士兵、水手、空军人员和海军陆战队员在作战、人道援助、维和及灾难救援等角色中的任务。

CDAO 在其负责任的 AI 工具包中纳入了五项伦理原则,即负责任、公平、可追溯、可靠和可治理。基于美国军方现有的伦理框架,这些原则植根于军方的价值观,并有助于维护其对负责任 AI 的承诺。

必须通过在模型及其治理系统中考虑功能性和非功能性需求,进行协调一致的努力,将这些原则付诸实践。下面,我们为实施 CDAO 的道德原则提供了广泛的建议。

1. 负责任

 

“国防部人员将在保持对 AI 能力的开发、部署和使用负责的同时,发挥适当水平的判断力和谨慎。”

大家都认为 AI 模型应该由谨慎周到的人员开发,但组织如何培养从事这项工作的人员呢?我们建议:

  • 培育一种认识到人工智能挑战具有社会技术性的组织文化。这一点必须从一开始就明确传达,并且需要认识到,必须在模型及其管理过程中投入相应的实践、技能和审慎思考,以持续监测其表现。
  • 详细说明 AI 生命周期中的伦理实践,与业务(或任务)目标、数据准备和建模、评估和部署相对应。CRISP-DM 模型在这方面很有用。IBM 推出的规模化数据科学方法作为 CRISP-DM 的延伸框架,通过整合数据科学家、工业与组织心理学家、设计师、传播专家等多方协作意见,为人工智能模型全生命周期提供治理支持。该方法融合了数据科学、项目管理、设计框架和人工智能治理方面的最佳实践。团队可以轻松查看和了解生命周期中每个阶段的需求,包括文档、需要联系或协作的对象以及后续步骤。
  • 提供可解释的 AI 模型元数据(例如以事实说明书形式),明确指定责任人、性能基准(与人类表现对比)、使用的数据与方法、审计记录(时间及执行人)以及审计目的与结果。

需要注意的是,这些责任衡量标准必须能让非 AI 专家理解(避免使用"数学术语硬解释")。

2. 公平

 

“该部门将采取切实措施,最大限度地减少 AI 功能中可能出现的无意偏见。”

所有人都认同 AI 模型的使用应当公平且不歧视,但这在实践中如何实现?我们建议:

  • 建立卓越中心,为多元化的跨学科团队提供应用培训社区,助力识别潜在的不公平影响。
  • 使用审计工具来反映模型中表现出的偏见。若反映的内容与组织价值观一致,则对所选数据及方法保持透明度至关重要。如果反映的内容与组织价值观不一致,那么这就表明必须进行调整。发现并减轻偏差可能造成的不平等影响,远不止于检查模型训练所使用的数据。组织还必须审查相关人员和流程。例如,模型的适当使用和不当使用是否已被清晰传达?
  • 通过提供不同服务水平的功能和非功能需求,衡量公平性并使公平标准可操作。
  • 运用设计思维框架评估 AI 模型的意外影响,确定最终用户的权利,并将原则付诸实践。设计思维研讨活动必须吸纳拥有多元生活经历的人群参与,多样性越丰富越好

3. 可追溯

 

“该部门将按照以下原则开发和部署 AI 能力:确保相关人员对人工智能技术、开发流程及操作方法具备充分理解,并采用透明、可审计的方法论、数据源以及设计流程与文档记录。”

通过使用 AI 向所有人员提供明确的指导方针,实现可追溯性:

  • 在与 AI 系统交互时,务必向用户明确说明。
  • 为 AI 模型提供内容根基。授权领域专家整理和维护用于训练模型的可信数据源。模型输出基于其训练所用的数据。

IBM 及其合作伙伴能够提供具备全面、可审计内容根基的 AI 解决方案,这对于高风险应用场景至关重要。

  • 记录关键元数据,使 AI 模型透明化并实现模型库存的追踪管理。确保此元数据是可解释的,并且正确的信息已公开给适当的人员。数据解读需要反复实践,并且是一项跨学科的协作任务。在 IBM,我们的 AI 设计团队致力于向员工普及数据在 AI 中的关键作用(及其他基础知识),并向开源社区贡献技术框架。
  • 确保这些元数据能够被使用者轻松检索(最终在输出源头即可获取)。
  • 采用人机协同机制,使 AI 始终作为人类的增强和协助工具。这允许人类在 AI 系统运行时提供反馈。
  • 建立流程与框架,在模型部署或采购之前充分评估其差异性影响与安全风险。指定专人负责降低这些风险。

4. 可靠

 

“本部门的人工智能能力将具有明确、清晰界定的用途,并且这些能力的安全性及有效性将在其整个生命周期中,针对既定用途进行测试与保障。”

组织必须记录明确的用例,然后进行合规性测试。实施和扩展这一过程需要强大的文化一致性,以便即使没有持续的直接监督,从业者也遵守最高标准。最佳实践包括:

  • 建立能够持续重申为何公平可靠的输出至关重要的社群。许多从业者真诚地相信,只要抱有最良好的初衷,就不会产生差异性影响。这是一种误解。由高度投入的社区领导者提供的实践培训至关重要,他们能够让员工感到被倾听和被包容。
  • 围绕模型训练数据的使用指南与标准,构建可靠性测试的基本原理。实现这一目标的最佳方式,是提供因缺乏严格审查而导致后果的实例。
  • 限制用户对模型开发的访问权限,但在项目启动阶段收集多元化视角,以防范引入偏见。
  • 在整个 AI 生命周期中执行隐私和安全检查。
  • 在定期计划的审计中纳入对准确性的衡量。必须明确坦率地说明模型性能与人类表现的对比情况。如果模型未能提供准确结果,需明确说明该模型的负责人以及用户可采取的追责途径。(所有这些都应纳入可解释、易查找的元数据体系中)。

5. 可治理

 

“本部门将致力于设计和构建具备预期功能的人工智能系统,同时确保其能够检测并规避非预期后果,且对已部署并表现出非预期行为的系统具备中止运行或失效保护的能力。”

要实施这一原则,需要:

  • AI 模型投资并不会止步于部署。投入资源,确保模型继续按预期运行。评估和降低整个 AI 生命周期的风险,而不仅仅是在部署后。
  • 指定一个责任方,并为其提供资金支持的授权,以切实履行治理职责。他们必须被赋予实权。
  • 投资于沟通、社区建设和教育。利用 watsonx.governance 等工具来监控人工智能系统。
  • 按照上述方法捕获和管理 AI 模型库存。
  • 在所有模型上部署网络安全措施。

IBM 在推进值得信赖的 AI 方面处于领先地位

自 AI 系统诞生以来,IBM 一直处于推进可信赖 AI 原则的前沿,同时也是 AI 系统治理领域的思想领袖。我们遵循长期以来秉持的信任和透明原则,明确指出 AI 的作用是增强而不是取代人类的专业知识和判断。

2013 年,IBM 踏上了 AI 和机器学习的可解释性和透明度之旅。IBM 是人工智能伦理领域的先行者,早在 2015 年便任命了全球人工智能伦理负责人,并于 2018 年成立了人工智能伦理委员会。这些专家致力于帮助确保我们在全球业务往来中恪守原则遵守承诺。2020 年,IBM 向 Linux 基金会捐赠了负责任的 AI 工具包,以帮助构建公平、安全且值得信赖的 AI 未来。

IBM 引领全球共同努力,塑造负责任的 AI 的未来以及符合道德规范的 AI 指标、标准和最佳实践:

  • 参与了拜登政府人工智能行政命令的制定工作
  • 披露/提交了 70 多项负责任的 AI 专利
  • IBM 首席执行官 Arvind Krishna 担任世界经济论坛发起的“全球人工智能行动联盟”(WEF) 指导委员会联席主席,
  • 该联盟致力于在全球范围内加速推广包容、透明、可信的人工智能
  • 作为世界经济学论坛生成式 AI 专题的两篇合著论文作者,分别围绕价值释放体系及安全系统技术开发展开深度论述。
  • 担任 Linux 基金会 AI 信托委员会联席主席
  • 为 NIST AI 风险管理框架做出贡献;在 AI 指标、标准和测试领域与 NIST 合作

构建负责任的人工智能体系是一项多维度挑战,因为这要求我们将人类价值观可靠且连贯地嵌入技术内核。然而这一切努力都是值得的。我们相信上述指导方针可以帮助 DoD 有效运行可信 AI 并帮助其完成使命。

如需了解 IBM 如何提供帮助的更多信息,请访问人工智能治理咨询 | IBM

更多资源:

作者

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

采取后续步骤

一站式访问跨越 AI 开发生命周期的功能。利用用户友好型界面、工作流并访问行业标准 API 和 SDK,生成功能强大的 AI 解决方案。

深入了解 watsonx.ai 预约实时演示