如果 AI 偏见得不到有效解决,便会影响组织取得成功,并导致人们无法公平地参与经济和社会生活。这一偏见会降低 AI 的准确性,从而削弱其潜力。
企业不太可能从产生扭曲结果的系统中获益。而由 AI 偏见引起的丑闻可能会加剧有色人种、女性、残疾人、LGBTQ 社区或其他边缘群体之间的不信任。
AI 所依赖的模型吸收了社会的偏见 ,而这些偏见可能会悄无声息地嵌入到训练 AI 的大量数据之中。在招聘、警务、信用评分等用例中,反映社会不平等现象的历史偏见数据收集可能会对历史上被边缘化的群体造成伤害。据《华尔街日报》报道,“随着人工智能的日益普及,企业仍在努力解决普遍面临的偏见问题。”1
当 AI 由于偏见而犯错,例如,拒绝为特定群体提供机会、错误识别其照片或对其进行不公正的惩罚时,违规组织的品牌形象及声誉都会受到损害。与此同时,这些群体中的人和整个社会都可能在不知不觉中遭受伤害。以下是一些有关 AI 差异和偏见及其潜在危害的典型案例。
在医疗保健领域,女性或少数群体的数据代表性不足可能会导致预测性 AI 算法出现扭曲。2例如,计算机辅助诊断 (CAD) 系统对非裔美国人患者的诊断准确率比白人患者低。
虽然 AI 工具可以简化搜索过程中简历扫描的自动化,以帮助识别理想的候选人,但所请求的信息和筛选出的答案可能会导致不同群体之间的结果不成比例。例如,如果一则招聘广告使用“忍者”一词,它可能会吸引更多的男性而不是女性,尽管这绝不是工作要求。3
作为图像生成的测试,彭博社要求创建 5,000 多张 AI 图像,结果发现“Stable Diffusion 模型的结果显示,这个世界是由白人男性 CEO 统治的。女医生、律师或法官屈指可数。黑皮肤的男性会犯罪,而黑皮肤的女性则以翻汉堡为生。” 4Midjourney 进行了一项类似的 AI 艺术生成研究,要求AI 提供专业人士的图像。Midjourney 展示了不同年龄段的人,但老年人始终是男性,这强化了女性在职场角色的性别偏见。5
刑事司法系统中的一些组织使用的人工智能驱动预测性警务工具,旨在识别犯罪可能发生的区域。然而,这些工具通常依赖历史逮捕数据,可能会加剧现有的种族定性模式,并导致对少数族裔社区的过度攻击。6
扭曲的结果会损害整个组织和社会。以下是一些最常见的 AI 偏见类型7。
外群体同质性偏见:这是一个不知道自己不知道什么的情况。人们倾向于更了解内群体(一个人所属的群体)成员,并认为他们比外群体成员更多元化。结果可能是开发人员创建的算法不太能够区分训练数据中不属于大多数群体的个人,从而导致种族偏见、错误分类和不正确的答案。
避免偏见陷阱的第一步就是从一开始就退后一步,对 AI 工作进行一些思考。与几乎所有业务挑战一样,预先修复问题比等待训练失败然后对损坏的结果进行梳理要容易得多。但许多组织都急于求成:因小失大,这让他们付出了代价。
要识别并解决 AI 中的偏见问题,需要培养 AI 治理能力,即指导、管理和监控组织的 AI 活动的能力。在践行 AI 治理的过程中,会制定一系列策略、行动指南和框架,用以引导组织以负责任的方式开发和使用 AI 技术。如果能够成功地进行 AI 治理,可以确保企业、客户、员工乃至整个社会的利益得到兼顾平衡。
AI 治理通常包括评估公平性、公正性和包容性的方法。反事实公平性等方法可以识别模型决策中的偏见,确保即使包括性别、种族或性取向等敏感属性,也能获得公平的结果。
由于 AI 的复杂性,算法有时会成为一个黑匣系统,难以了解其使用的数据和生成过程。透明度的实践和技术有助于确保使用无偏见的数据来构建系统,并确保结果的公正性。致力于保护客户信息的公司可以建立品牌信任,并更有可能打造出值得信赖的 AI 系统。
为了提供另一层质量保证,可以建立一个“人机回圈”系统,提供选择或提出建议,然后由人工决策批准。
以下是可保持 AI 程序不存在偏见的六个流程步骤的清单。
1. 选择正确的学习模型:
2. 使用正确的数据进行培训:用错误的数据训练机器学习会导致错误的结果。输入到 AI 的任何数据都应该是完整和平衡的,以便复制选定群体的实际人口统计数据。
3. 选择一个平衡的团队:AI 团队越多元化(包括种族、经济地位、教育水平、性别和工作职责),就越有可能识别出偏见。一个全面的 AI 团队的人才和观点应该包括 AI 业务创新者、AI 创造者、AI 实施者以及特定 AI 工作的消费者代表。9
4. 谨慎执行数据处理: 企业在处理数据时应意识到每个步骤存在的偏见。风险不仅在于数据选择:无论是在数据预处理、处理中还是处理后,偏见随时都可能“悄然而动”,并输入到 AI 中。
5. 持续监控:没有一种模型是完整或永久的。使用来自整个组织的真实数据进行持续监控和测试,有助于在偏见造成危害之前检测并将其纠正。为了进一步避免偏见,组织应考虑由其内部的独立团队或可信赖的第三方进行评估。
6. 避免基础设施问题:除了人力和数据的影响外,有时基础设施本身也会引起偏见。例如,使用从机械传感器收集的数据,如果传感器出现故障,设备本身可能会带入偏见。这种偏见可能很难检测,需要对最新的数字和技术基础设施进行投资。
了解《欧盟 AI 法案》对业务的影响,还有如何做好准备、降低风险以及平衡监管与创新。
了解生成式 AI 的新挑战、治理 AI 与 ML 模型的需求,以及构建可信、透明且可解释的 AI 框架的步骤。
了解如何使用面向生成式 AI 模型的 AI 产品组合来推动道德与合规实践。
更深入地了解如何利用 watsonx.governance 来确保公平性、管理偏差、保持质量和增强可解释性。
我们对 2,000 家组织进行了调查,旨在了解他们的 AI 计划,以发现哪些方法有效、哪些方法无效,以及如何才能取得领先。
了解如何为您的用例选择最合适的 AI 基础模型。
1 《华尔街日报》:Rise of AI Puts Spotlight on Bias in Algorithms
2 Booz Allen Hamilton: Artificial Intelligence Bias in Healthcare
3 LinkedIn:减少 AI 偏见 - 人力资源领导者指南
4 彭博社:Humans Are Biased. Generative AI Is Even Worse
5 The Conversation US:年龄歧视、性别歧视、阶级歧视等 - AI 生成图像中的偏见的 7 个示例
6 Technology Review:预测性警务工具仍然存在种族主义 - 无论使用什么数据
7 Tech Target: Machine learning bias (AI bias)
查普曼大学 AI 中心:Bias in AI
AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023
8 McKinsey:应对人工智能(和人类)中的偏见
9 《福布斯》杂志:The Problem With Biased AIs (and How To Make AI Better)