人工智能 (AI) 正在重塑社会生态,包括国家安全的基本范式。基于此认知,美国国防部于 2019 年成立联合人工智能中心(该机构已改组为数字与人工智能首席办公室),旨在开发有助于获得军事竞争优势、实现人本 AI 部署条件、增强国防行动敏捷性的 AI 解决方案。然而,国防部在扩大、采用和充分发挥 AI 潜力过程中面临的障碍,与私营部门的挑战具有高度相似性。
IBM 最近的一项调查发现,阻碍人工智能成功部署的主要障碍包括人工智能技能和专业知识有限、数据复杂性以及伦理问题。此外,根据 IBM 商业价值研究院的数据,79% 的高管表示 AI 伦理对其全企业 AI 战略非常重要,但不到 25% 的企业已将 AI 伦理的通用原则付诸实施。赢得对 AI 模型输出的信任是一个社会-技术挑战,需要社会-技术的解决方案。
国防领导人若要落实负责任地管理 AI,首先必须构建共同语义场——即指引安全负责任使用 AI 的通用文化准则——然后再实施降低风险的技术解决方案和防护措施。美国国防部可通过提升 AI 认知水平、与可信机构合作制定符合战略目标与价值观的治理框架,为此奠定坚实基础。
重要的是,员工必须了解如何部署 AI 以提高组织效率。但同样重要的是,他们要深刻理解 AI 的风险和局限性,以及如何实施适当的安全措施和道德准则。对于国防部或任何政府机构来说,这些都是基本要求。
量身定制的 AI 学习路径可以帮助识别技能缺口和所需培训,使人员获得其特定角色所需的知识。整个机构范围的 AI 素养对所有人员都是必不可少的,以便他们能够快速评估、描述并应对快速传播且危险的威胁,例如虚假信息和深度伪造内容。
IBM 在组织内部以定制化方式应用 AI 素养培训,因为关键素养的定义会根据个人的职位而有所不同。
作为值得信赖的人工智能领域的领导者,IBM 在制定治理框架方面拥有丰富的体验,这些框架能够指导负责任地使用 AI,使其与客户组织的价值观保持一致。IBM 还在自身内部制定了 AI 使用框架,为政策立场提供指导,例如在面部识别技术等方面的应用。
AI 工具现已被用于国家安全领域,并帮助防御数据泄露和网络攻击。但 AI 也支持国防部的其他战略目标。它可以增强员工队伍实力,帮助他们提高效率,并帮助他们 重新学习技能。它可以帮助打造有弹性的供应链,以支持士兵、水手、空军人员和海军陆战队员在作战、人道援助、维和及灾难救援等角色中的任务。
CDAO 在其负责任的 AI 工具包中纳入了五项伦理原则,即负责任、公平、可追溯、可靠和可治理。基于美国军方现有的伦理框架,这些原则植根于军方的价值观,并有助于维护其对负责任 AI 的承诺。
必须通过在模型及其治理系统中考虑功能性和非功能性需求,进行协调一致的努力,将这些原则付诸实践。下面,我们为实施 CDAO 的道德原则提供了广泛的建议。
“国防部人员将在保持对 AI 能力的开发、部署和使用负责的同时,发挥适当水平的判断力和谨慎。”
大家都认为 AI 模型应该由谨慎周到的人员开发,但组织如何培养从事这项工作的人员呢?我们建议:
需要注意的是,这些责任衡量标准必须能让非 AI 专家理解(避免使用"数学术语硬解释")。
“该部门将采取切实措施,最大限度地减少 AI 功能中可能出现的无意偏见。”
所有人都认同 AI 模型的使用应当公平且不歧视,但这在实践中如何实现?我们建议:
“该部门将按照以下原则开发和部署 AI 能力:确保相关人员对人工智能技术、开发流程及操作方法具备充分理解,并采用透明、可审计的方法论、数据源以及设计流程与文档记录。”
通过使用 AI 向所有人员提供明确的指导方针,实现可追溯性:
IBM 及其合作伙伴能够提供具备全面、可审计内容根基的 AI 解决方案,这对于高风险应用场景至关重要。
“本部门的人工智能能力将具有明确、清晰界定的用途,并且这些能力的安全性及有效性将在其整个生命周期中,针对既定用途进行测试与保障。”
组织必须记录明确的用例,然后进行合规性测试。实施和扩展这一过程需要强大的文化一致性,以便即使没有持续的直接监督,从业者也遵守最高标准。最佳实践包括:
“本部门将致力于设计和构建具备预期功能的人工智能系统,同时确保其能够检测并规避非预期后果,且对已部署并表现出非预期行为的系统具备中止运行或失效保护的能力。”
要实施这一原则,需要:
自 AI 系统诞生以来,IBM 一直处于推进可信赖 AI 原则的前沿,同时也是 AI 系统治理领域的思想领袖。我们遵循长期以来秉持的信任和透明原则,明确指出 AI 的作用是增强而不是取代人类的专业知识和判断。
2013 年,IBM 踏上了 AI 和机器学习的可解释性和透明度之旅。IBM 是人工智能伦理领域的先行者,早在 2015 年便任命了全球人工智能伦理负责人,并于 2018 年成立了人工智能伦理委员会。这些专家致力于帮助确保我们在全球业务往来中恪守原则遵守承诺。2020 年,IBM 向 Linux 基金会捐赠了负责任的 AI 工具包,以帮助构建公平、安全且值得信赖的 AI 未来。
IBM 引领全球共同努力,塑造负责任的 AI 的未来以及符合道德规范的 AI 指标、标准和最佳实践:
构建负责任的人工智能体系是一项多维度挑战,因为这要求我们将人类价值观可靠且连贯地嵌入技术内核。然而这一切努力都是值得的。我们相信上述指导方针可以帮助 DoD 有效运行可信 AI 并帮助其完成使命。
如需了解 IBM 如何提供帮助的更多信息,请访问人工智能治理咨询 | IBM
更多资源: