什么是 AI 偏见?

鸟瞰灯火通明的旧金山

作者

James Holdsworth

Content Writer

什么是 AI 偏见?

AI 偏见,也称为机器学习偏见或算法偏见,指的是由于人为偏见造成原始训练数据或 AI 算法扭曲,出现有偏倚的结果,从而导致输出失真和可能有害的结果。

如果 AI 偏见得不到有效解决,便会影响组织取得成功,并导致人们无法公平地参与经济和社会生活。这一偏见会降低 AI 的准确性,从而削弱其潜力。

企业不太可能从产生扭曲结果的系统中获益。而由 AI 偏见引起的丑闻可能会加剧有色人种、女性、残疾人、LGBTQ 社区或其他边缘群体之间的不信任。

AI 所依赖的模型吸收了社会的偏见 ,而这些偏见可能会悄无声息地嵌入到训练 AI 的大量数据之中。在招聘、警务、信用评分等用例中,反映社会不平等现象的历史偏见数据收集可能会对历史上被边缘化的群体造成伤害。据《华尔街日报》报道,“随着人工智能的日益普及,企业仍在努力解决普遍面临的偏见问题。”1

小球在轨道上滚动的三维设计

最新的 AI 新闻 + 洞察分析

在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。 

真实世界的例子和风险

当 AI 由于偏见而犯错,例如,拒绝为特定群体提供机会、错误识别其照片或对其进行不公正的惩罚时,违规组织的品牌形象及声誉都会受到损害。与此同时,这些群体中的人和整个社会都可能在不知不觉中遭受伤害。以下是一些有关 AI 差异和偏见及其潜在危害的典型案例。

在医疗保健领域,女性或少数群体的数据代表性不足可能会导致预测性 AI 算法出现扭曲。2例如,计算机辅助诊断 (CAD) 系统对非裔美国人患者的诊断准确率比白人患者低。

虽然 AI 工具可以简化搜索过程中简历扫描的自动化,以帮助识别理想的候选人,但所请求的信息和筛选出的答案可能会导致不同群体之间的结果不成比例。例如,如果一则招聘广告使用“忍者”一词,它可能会吸引更多的男性而不是女性,尽管这绝不是工作要求。3

作为图像生成的测试,彭博社要求创建 5,000 多张 AI 图像,结果发现“Stable Diffusion 模型的结果显示,这个世界是由白人男性 CEO 统治的。女医生、律师或法官屈指可数。黑皮肤的男性会犯罪,而黑皮肤的女性则以翻汉堡为生。” 4Midjourney 进行了一项类似的 AI 艺术生成研究,要求AI 提供专业人士的图像。Midjourney 展示了不同年龄段的人,但老年人始终是男性,这强化了女性在职场角色的性别偏见。5

刑事司法系统中的一些组织使用的人工智能驱动预测性警务工具,旨在识别犯罪可能发生的区域。然而,这些工具通常依赖历史逮捕数据,可能会加剧现有的种族定性模式,并导致对少数族裔社区的过度攻击。6

AI 学院

AI 领域的信任、透明度和治理

AI 信任可以说是 AI 领域最重要的话题。这个话题会让人不知所措,也是情理之中的事情。我们将解析幻觉、偏见和风险等问题,并分享以合乎道德、负责且公平的方式采用 AI 的步骤。

偏见的根源

扭曲的结果会损害整个组织和社会。以下是一些最常见的 AI 偏见类型7

  • 算法偏见:如果提出的问题不完全正确或不够具体,或者输入机器学习算法的反馈无法引导其搜索解决方案, 则可能会导致错误信息。

  • 认知偏见:AI 技术需要人类提供信息,而人类是容易犯错的。个人偏见会在从业者不知不觉中被带入。这可能会影响数据集或模型行为。

  • 确认偏见:与认知偏见密切相关,当 AI 过度依赖数据中预先存在的信念或趋势时,就会发生这种情况,即加倍依赖已有的偏见,无法识别新的模式或趋势。
  • 排除偏见:当重要数据被排除在正在使用的数据之外时,就会发生这种类型的偏见,通常是因为开发人员未能看到新的重要因素

  • 测量偏见:测量偏见是由不完整的数据造成的。这通常是由于疏忽或缺乏准备而导致数据集中的结果不包括应考虑的全部人口。例如,如果一所大学想预测成功毕业的因素,但只包括毕业生,那么答案就会完全忽略导致一些人辍学的因素。
  • 外群体同质性偏见:这是一个不知道自己不知道什么的情况。人们倾向于更了解内群体(一个人所属的群体)成员,并认为他们比外群体成员更多元化。结果可能是开发人员创建的算法不太能够区分训练数据中不属于大多数群体的个人,从而导致种族偏见、错误分类和不正确的答案。

  • 预测性偏见:当刻板印象和错误的社会假设进入算法的数据集中时就会发生,这不可避免地会导致有偏见的结果。例如, AI 可以返回结果,显示只有男性是医生,所有护士都是女性。

  • 回忆偏见:这在数据标注过程中形成,其中,主观观察结果应用标签的方式不一致。

  • 样本/选择偏差:当用于训练机器学习模型的数据不够大、不够有代表性或太不完整而无法充分训练系统时,就会出现问题。如果所有接受 AI 模型训练咨询的学校教师都具有相同的学术资格,那么任何未来参与的教师都需要具有相同的学术资格。

  • 定型偏见:当 AI 系统(通常是无意中)强化了有害的刻板印象时,就会出现这种情况。例如,语言翻译系统可能将某些语言与某些性别或种族刻板印象相关联。McKinsey 对试图消除数据集中的偏见提出了警告:“一种天真的方法是从数据中删除受保护的类别(例如性别或种族),并删除导致算法存在偏倚的标签。然而,这种方法可能行不通,因为删除的标签可能会影响模型的理解,结果的准确性可能会变差。”8

避免偏见的原则

避免偏见陷阱的第一步就是从一开始就退后一步,对 AI 工作进行一些思考。与几乎所有业务挑战一样,预先修复问题比等待训练失败然后对损坏的结果进行梳理要容易得多。但许多组织都急于求成:因小失大,这让他们付出了代价。

要识别并解决 AI 中的偏见问题,需要培养 AI 治理能力,即指导、管理和监控组织的 AI 活动的能力。在践行 AI 治理的过程中,会制定一系列策略、行动指南和框架,用以引导组织以负责任的方式开发和使用 AI 技术。如果能够成功地进行 AI 治理,可以确保企业、客户、员工乃至整个社会的利益得到兼顾平衡。

AI 治理通常包括评估公平性、公正性和包容性的方法。反事实公平性等方法可以识别模型决策中的偏见,确保即使包括性别、种族或性取向等敏感属性,也能获得公平的结果。

由于 AI 的复杂性,算法有时会成为一个黑匣系统,难以了解其使用的数据和生成过程。透明度的实践和技术有助于确保使用无偏见的数据来构建系统,并确保结果的公正性。致力于保护客户信息的公司可以建立品牌信任,并更有可能打造出值得信赖的 AI 系统。

为了提供另一层质量保证,可以建立一个“人机回圈”系统,提供选择或提出建议,然后由人工决策批准。

如何避免偏见

以下是可保持 AI 程序不存在偏见的六个流程步骤的清单

1. 选择正确的学习模型:

  • 使用监督模型时,利益相关者会选择训练数据。利益相关者团队必须多元化,不仅限于数据科学家,并且该团队应接受过有助于防止无意识偏见的培训,这一点至关重要。
  • 无监督模型完全使用 AI 来识别偏见。需要在神经网络中内置防偏见的工具,以便它学会识别存在偏见的内容。

2. 使用正确的数据进行培训:用错误的数据训练机器学习会导致错误的结果。输入到 AI 的任何数据都应该是完整和平衡的,以便复制选定群体的实际人口统计数据。

3. 选择一个平衡的团队:AI 团队越多元化(包括种族、经济地位、教育水平、性别和工作职责),就越有可能识别出偏见。一个全面的 AI 团队的人才和观点应该包括 AI 业务创新者、AI 创造者、AI 实施者以及特定 AI 工作的消费者代表。9

4. 谨慎执行数据处理: 企业在处理数据时应意识到每个步骤存在的偏见。风险不仅在于数据选择:无论是在数据预处理、处理中还是处理后,偏见随时都可能“悄然而动”,并输入到 AI 中。

5. 持续监控:没有一种模型是完整或永久的。使用来自整个组织的真实数据进行持续监控和测试,有助于在偏见造成危害之前检测并将其纠正。为了进一步避免偏见,组织应考虑由其内部的独立团队或可信赖的第三方进行评估。

6. 避免基础设施问题:除了人力和数据的影响外,有时基础设施本身也会引起偏见。例如,使用从机械传感器收集的数据,如果传感器出现故障,设备本身可能会带入偏见。这种偏见可能很难检测,需要对最新的数字和技术基础设施进行投资。

相关解决方案
IBM watsonx.governance™

借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。

了解 watsonx.governance
人工智能治理解决方案

了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。

探索人工智能治理解决方案
人工智能治理咨询服务

借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。

了解 AI 治理服务
采取下一步行动

借助单一组合来指导、管理和监控您的 AI,以加速负责任、透明且可解释的 AI。

深入了解 watsonx.governance 预约实时演示
脚注

1 《华尔街日报》:Rise of AI Puts Spotlight on Bias in Algorithms

2 Booz Allen Hamilton: Artificial Intelligence Bias in Healthcare

3 LinkedIn:减少 AI 偏见 - 人力资源领导者指南

4 彭博社:Humans Are Biased. Generative AI Is Even Worse

5 The Conversation US:年龄歧视、性别歧视、阶级歧视等 - AI 生成图像中的偏见的 7 个示例

6 Technology Review:预测性警务工具仍然存在种族主义 - 无论使用什么数据

7 Tech Target: Machine learning bias (AI bias)
 查普曼大学 AI 中心:Bias in AI 
 AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023

8 McKinsey:应对人工智能(和人类)中的偏见

9 《福布斯》杂志:The Problem With Biased AIs (and How To Make AI Better)