我直说吧:许多组织都在使用人工智能 (AI),无论他们是否意识到这一点。关键在于具体方式。 组织如何运用 AI?又如何确保其以负责任的方式在使用?
IBM Consulting® 可信人工智能全球负责人 Phaedra Boinodiris 指出,建立对 AI 的信任是一项社会技术双重挑战,其中最具挑战性的是人为因素。所需的综合方法可分解为三大要素:人员、流程和工具,以及在组织内部实践这些要素的核心原则。
在人员层面,重点在于构建负责任管理 AI 所需的组织文化。需要建立 AI 治理流程来整合资源清单与元数据、实施风险评估等。组织还必须配备完善的 AI 工程框架工具,贯穿 AI 全生命周期,确保模型准确反映设计意图。
Boinodiris 强调,在这三大要素中,人员是实现组织负责任 AI 平衡最棘手的环节。
“建立正确的组织文化具有挑战性。当思考负责任地管理 AI 需要何种组织文化时,应遵循若干关键原则,”Boinodiris 说。
首先是以“极为谦卑”的态度来对待这一领域,因为组织成员在进入这一领域时,需要进行大量的学习和“忘却所学”。Boinodiris 所说的“忘却所学”是指摒弃谁在这些对话中拥有话语权的旧有观念。围绕 AI 的讨论必须纳入具有不同背景的多个学科的个人,以便以整体性的方式打造 AI。
这意味着拥有成长型思维将是培育负责任的 AI 的关键。Boinodiris 补充说,组织需要为员工提供心理安全和安全的空间,以便围绕 AI 主题开展可能很艰难的对话。
第二个原则是承认人们具有不同的经历和背景,所有角度的观点都很重要。组织必须认识到其员工队伍以及构建和治理 AI 模型人员的多样性。这不仅仅是指他们的性别、种族、民族或性取向,还涉及各自的视角和生活体验。
“我强调的是,在探讨‘方案是否恰当? 能否解决问题?数据是否准确?潜在风险如何?损害可能以何种形式呈现?’这类问题时,必须让拥有多元世界经验的人参与决策,”Boinodiris 说。
最终,为组织构建和管理 AI 模型的人员或团队必须具备跨学科背景。具体表现为组建包含社会学家、人类学家和法律专家等多元背景成员的团队,这是负责任创建 AI 的关键所在。
Boinodiris 指出,人们对 AI 的普遍误解是将 100% 精力投入编码工作。她澄清事实并非如此。
“我们清楚地知道,超过 70% 的精力都用于确认‘这是否是适用的正确数据?’。数据最引人入胜之处——也是我最认可的定义——在于它是人类经验的产物,”她说道。
人类既是数据的创造者,也是数据生成机器的制造者。但必须认识到每个人都存在偏见——据 Boinodiris 研究,确切存在 188 种认知偏差。这些偏见自古有之,且有其深层根源。
Boinodiris 将 AI 比作镜子,它能映射出人类自身的偏见。其核心在于需要勇气审视这面“镜子”,并判断映射结果是否符合组织价值观。
负责这些 AI 模型的组织需要对做出有关数据的特定决策或选择某种方法的原因保持透明。或者为什么他们选择一种方法而不是另一种方法。人们必须为他们的 AI 解决方案创建一份事实说明书,详细说明有关该模型的重要信息。
例如明确:适用场景是否恰当?数据来源是否合规?采用何种算法模型?责任主体是谁?模型审计频率如何?审计内容及结果怎样?等等。
此外,人们需保持自省意识。若发现映射结果与价值观不符,必须及时调整方法。
“因此,当你听到有人说,‘我的 AI 模型中不存在任何偏见’时,请记住一点:所有数据都有偏倚。关键在于要透明地说明为什么您认为这些数据是模型中最重要的内容。”Boinodiris 说。请记住要不断反省,因为我们的观点、我们的精神会随着时间的推移而改变。
对 AI 的信任是赢得的,而不是给予的。与团队成员进行艰难的对话,了解他们的偏见可能源于何处,并认识到创建一个负责任且可靠的 AI 模型并不是线性的,需要艰苦的工作。
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。