AI 透明度可帮助人们访问信息,以更好地了解人工智能 (AI) 系统的创建方式以及它如何做出决策。
研究人员有时将人工智能描述为一个“黑匣”,因为随着该技术日益复杂,解释、管理和监管 AI 结果仍然很困难。AI 透明度有助于打开这个黑匣 ,让我们更好地了解 AI 结果以及模型如何做出决策。
越来越多的高风险行业(包括金融、医疗保健、人力资源 (HR) 和执法)依赖 AI 模型进行决策。提高人们对这些模型的训练方式以及确定结果方式的理解,可以建立对 AI 决策和使用这些模型的组织的信任。
AI 创造者可以通过披露实现透明、值得信赖的 AI。他们可以记录和分享底层 AI 算法的逻辑和推理、用于训练模型的数据输入、用于模型评估和验证的方法等等。这使利益相关者对模型预测准确性的评估能考虑到公平、漂移和偏见。
高水平的透明度对于负责任的 AI 至关重要。负责任的 AI 是一组原则,有助于指导 AI 的设计、开发、部署和使用。它考虑了 AI 系统对社会的更广泛的影响,以及使这些技术与利益相关者的价值观、法律标准和道德考虑保持一致所需的措施。
现在,全球每天有数千万人使用生成式 AI聊天机器人、虚拟代理 和推荐引擎等 AI 应用程序。这种低风险决策可能不关心这些 AI 工具工作原理的透明度:如果模型被证明不准确或有偏见,用户可能会损失一些时间或可支配收入ha
然而,越来越多的行业正在采用 AI 应用程序来为高风险决策提供信息。例如,AI 现在可以帮助企业和用户做出投资选择、医疗诊断、招聘决策、刑事判决等。在这些情况下,具有偏见或不准确的 AI 输出的潜在后果要危险得多。人们可能会失去一生的积蓄、职业机会或数年的生命。
利益相关者要相信 AI 正在代表他们做出有效和公平的决策,他们需要了解模型的运行方式、算法的逻辑以及如何评估模型的准确性和公平性。他们还需要更多地了解用于训练和调整模型的数据,包括数据源以及数据的处理、加权和标记方式。
除了建立信任外,AI 透明度还可以促进整个 AI 生态系统的知识共享与协作,从而推动 AI 发展。 通过默认情况下的透明化,企业可以更加专注于使用 AI 技术来实现业务目标,而不必担心 AI 的可靠性。
围绕 AI 使用的监管要求网络在不断延展。透明的模型流程对于遵守这些法规以及满足模型验证者、审计者和监管者的要求至关重要。《欧盟 AI 法案》被视为全球首个全面的 AI 监管框架。
欧盟人工智能法案 (EU) 采取基于风险的监管方式,根据 AI 带来的风险应用不同的规则。它完全禁止某些 AI 的使用,并对其他 AI 实施严格的治理、风险管理和透明度要求。对于特定类型的 AI,还有额外的透明度义务。例如:
欧盟 《通用数据保护条例》(GDPR) 的实施导致其他国家/地区采用个人数据隐私法规。同样,专家预测《欧盟 AI 法案》将刺激全球 人工智能治理 和 道德 标准的发展。
大多数国家和地区尚未颁布有关使用 AI 的全面立法或法规;不过,目前已有一些广泛的框架。虽然并不总是可执行,但它们的存在是为了指导未来的监管以及负责任地开发和使用 AI。值得注意的例子包括:
AI 透明度与 AI 可解释性和 AI 可解读性密切相关。这些概念提供的洞察分析有助于解决长期存在的“黑匣”问题,即 AI 系统非常复杂,人类无法解释的实际和伦理问题。但是,它们具有不同的定义和用例:
AI 可解释性,或 可解释的 AI (XAI) 是一组允许人类用户理解和信任机器学习模型创建的结果和输出的过程和方法。模型可解释性着眼于 AI 系统如何获得特定结果,并有助于描述模型透明度。
AI 可解读性是指使整个 AI 过程可为人类理解。AI 可解读性提供了有关 AI 系统的底层逻辑、意义和预期结果的有意义的信息。这是人类对 AI 输出结果进行预测的成功率,而可解释性则更进一步,着眼于 AI 模型如何得出结果。
AI 透明度不仅仅是对 AI 决策过程进行解释。它包括与 AI 系统开发及其部署相关的因素,例如 AI 训练数据以及谁有权访问这些数据。
虽然 AI 透明度因用例、组织和行业而异,但企业在构建 AI 系统时可牢记一些策略。从较高的层面来看,这些战略包括制定明确的信任和透明度原则,将这些原则付诸实践,并将其嵌入整个 AI 生命周期中。
AI 透明度的一个更具体的策略是在 AI 生命周期的每个阶段执行彻底披露。为了实现披露,组织需要确定分享哪些信息以及如何分享。
模型用例、行业、受众和其他因素将有助于确定哪些信息需要披露。例如,AI 的高风险用途(如抵押贷款评估)可能需要比风险较低的应用(如虚拟助理的音频分类)更全面的披露。
披露内容可包括以下有关模型的全部或部分信息:
AI 生命周期中的每个角色都可以贡献信息,将责任分配给整个生态系统,而不是某个人。有一些软件平台和工具可以帮助自动化信息收集和其他人工智能治理活动。
各组织可以以各种格式呈现信息,例如打印文档或视频,从而实现 AI 透明度。格式取决于受众和用例。信息是否面向消费者,因此需要易于消化?或者它是否适用于数据科学家或监管机构,因此需要高水平的技术细节?
格式可能包括:
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。
1. “关于安全、可靠和值得信赖的人工智能开发和使用的行政命令”,白宫,2023 年 10 月 30 日。
2. “通知和解释”,白宫。
3. “ 针对开发先进 AI 系统之组织的广岛进程国际指导原则”,日本外务省,2023 年。
4. “GPT-4 技术报告”,arXiv,2023 年 3 月 15 日。