寻购、采购和供应商管理 (SVPM) 领导者在将负责任的人工智能治理纳入其软件和合同方面,尚有大量工作亟待完成。Gartner 最新报告告诫:忽视推行人工智能治理必要性的 SPVM 领导者,将使其组织暴露于重大风险之中。
Gartner 指出,“大多数软件和云提供商合同缺乏明确条款,承诺对提供负责任的 AI 负责;而其他合同则包含免责声明,免除其对不负责任的 AI 系统及输出的一切责任”。
当我对许多观众提出“组织中谁该对 AI 的负责任结果负责?”这一问题时,我得到的前三个答案都很令人担忧。
我得到的三个最常见的答案是:“没有人”、“我们不使用 AI”和“每个人”。这些答案都不正确,而且都令人担忧。
第一个也是最常见的答案是:“没有人会对 AI 模型的结果负责”,这显然令人忧心。这种情况绝无借口可寻。绝不能、也不该接受 AI 领域零问责制的现状。
第二个答案是“我们不用 AI”,鉴于 AI 已经嵌入到人们常用的各类企业软件应用程序许可证中,这个答案令人啼笑皆非。此外,它还表明组织并未跟踪其资产库存中的 AI,更糟糕的是,组织也未能向员工明确传达 AI 的适用与禁用场景。这是一个重大问题。
而最后一个答案——“人人有责”,至少还算高尚。每个在 AI 模型的生命周期中接触该模型的人,确实都要为此承担责任。然而,若将治理责任泛化至全员,是否意味着实质上无人真正对治理负责?AI 责任绝不能止步于“人人自治则万事大吉”的观点。
显然,组织对如何处理 AI 责任的看法与现实之间存在脱节。让我来解释一下,组织应如何切实承担责任。
负责人工智能治理和道德规范的人员,必须管理很多动态要素,其中最关键的是组织内部价值观的一致性。这意味着要让所有同僚认识到,这项工作对个人和组织都至关重要。如果没有 CEO 或董事会的持续沟通和支持,这一目标就难以实现。这些人工智能治理领导者需要确保 CISO 等同僚能够受邀参加关于 AI 投资的会议。
这些人工智能治理领导者最初可能会被视为减缓项目进展的障碍。获得资金和授权的人工智能治理领导者有机会建立全面的人工智能治理平台,从而在极短的时间内加快模型的可信部署。通过预先授权的数据集和审查流程,AI 解决方案构建者可以提前了解组织已经预先批准的用例、数据和方法。
然后,他们需要明确如何审计此类 AI 模型和解决方案,以监控该技术是否按照组织的预期实施。这是通过合同约束供应商对其模型负责的关键考量。
然后他们需要跟踪法规。监管环境不断变化,尤其是与 AI 相关的监管环境。许多国家或地区、州和城市都有专门针对 AI 使用和风险的法律,去年,欧盟推出了《欧盟 AI 法案》。许多公司和政府机构已经因其不当模型而被成功起诉。
人们认识到,组织可以拥有“合法但可怕”的模型,这意味着您必须围绕 AI 建立道德规范。而且,每当涉及道德规范议题时,组织都必须成为优秀的“传道者”。
组织必须能够教导代表您构建模型甚至代表您购买模型的人员,以反映组织道德规范的方式行事。
只要看看“公平”这一人类价值观就行了。我们都期望 AI 模型是公平的,但 AI 模型中代表了谁的公平观?作为一个社会,我们不能同意对公平存在单一的看法。
这意味着,组织内负责人工智能治理和道德项目的人员也发现自己负责 AI 素养项目。
这些 AI 素养计划不仅限于教导员工如何在工作中利用 AI 来提高生产力。AI 素养的出发点在于了解组织希望与 AI 建立什么样的关系。这些素养计划引入了组织希望在各类构建或购买的 AI 解决方案中体现的核心原则。它可教导员工如何将每一项原则付诸实践,或如何利用其应对不同程度的风险。
这些 AI 素养计划必然采用多学科形式,因为赢得对 AI 的信任度,严格来说并非技术问题,而是社会技术问题。构建可反映人类价值观的模型,或许是人类迄今尝试过最困难的任务之一。它需要具有多学科背景的人才。
对 AI 负责是一项重要的工作,这就是为什么个人需要强大的实力和资金支持,才能完成这项工作。它不止是一份副业,而要投入大量心力来解决诸多问题。所有组织都应致力于以负责任的方式下落实 AI 问责制。
简而言之,您可以获得更多您所衡量的人类行为。在负责任的模型管理方面,您正在激励和衡量哪些员工行为?您不仅要考虑如何激励和衡量正确的行为,还要考虑如何将教学更好地融入人工智能治理流程。许多人在填写 AI 模型库存表时缺乏审慎行事的动力,更甚者,他们可能完全未意识到所推广模型的风险。
总之,我希望您记住以下四个关键要点:
利用企业就绪的预构建 watsonx Procurement Agents 加速 AI 采购转型
通过与供应商和行业合作伙伴合作,实现从采购到付款的价值最大化。
利用 IBM 的采购咨询和外包服务实现采购运营转型。