本文旨在提供目前业界关于 AI 伦理的全面市场观点。 要了解有关 IBM 观点的更多信息,请在此处查看我们的 AI 伦理页面。
伦理是一系列道德原则,旨在帮助我们明辨是非。 AI 伦理是一系列指导方针,旨在为人工智能的设计和结果提供建议。 人类与生俱来就存在各种认知偏见(例如近因偏见和确认偏见),这些固有的偏见会在我们的行为中展现出来,因此也会在我们的数据中所有体现。 由于人工智能有可能以前所未有的速度放大这些人类偏见,因此在构建实验和算法时必须牢记一点,那就是“数据是所有机器学习算法的基础”。
随着大数据的出现,企业越来越重视在组织内推动自动化和数据驱动的决策。 尽管 AI 通常(并非总是)可以改善业务成果,但有些企业在一些 AI 应用中遇到了无法预料的后果,特别是由于糟糕的前期研究设计和存在偏见的数据集所造成的后果。
随着不公平结果的曝光,主要以研究和数据科学社区为代表的群体提出了一些新的指导方针,旨在解决 AI 伦理方面的问题。 在 AI 领域领先一步的企业也在形成这些指导方针方面成为既得利益者,因为他们品尝过在产品中未遵循道德标准而导致的一些后果。 在这方面稍有懈怠,就有可能面临声誉、监管和法律方面的风险,受到代价高昂的处罚。 与所有技术进步一样,在新兴领域中,创新总是超前于政府监管。 随着政府领域中相关专业知识的不断完善,我们预计会出台越来越多的 AI 规范,企业必须遵守这些规范以避免任何侵犯人权和公民自由的行为。
借助 IBM 的下一代 AI 和数据平台,让企业的 AI 力量成倍增长
阅读本文,了解有关如何将 AI 伦理原则付诸实践的更多信息。 (326 KB)
在制定用于管理和使用 AI 的规则和规范时,学术界使用《贝尔蒙报告》(链接位于 ibm.com 外部)(PDF, 121 KB),作为指导实验研究和算法开发中伦理道德问题的方法。 《贝尔蒙报告》(Belmont Report) 提出了以下三个主要原则,作为实验和算法设计的指南:
IBM AI 伦理
在有关 AI 技术的伦理对话中,我们发现了一些问题。 其中包括:
虽然这个话题深深吸引了公众的关注,但许多研究人员并不担心有关 AI 会在不远的将来超越人类智慧的想法。 这也称为超级智能,Nick Bostrum 将其定义为"在几乎所有领域(包括科学创造力、一般智慧和社交技能)都远超最优秀人类大脑的任何智力。" 尽管目前社会上并不急于实现强 AI 和超级智能,但当我们考虑使用自主系统(如自动驾驶汽车)时,这个想法会引发一些有趣的问题。 认为无人驾驶汽车从不会发生事故是不现实的,那么一旦发生事故,该由谁来承担赔偿责任? 我们是应该继续开发自动驾驶汽车,还是只将这项技术集成限于可帮助驾驶员安全驾驶的半自动驾驶汽车? "陪审团"仍未有定论,但这些都是随着开创性的 AI 技术的发展而产生的道德争论。
虽然公众对人工智能的认识大都集中于失业问题,但这种担忧可能会发生转变。 借助各种颠覆性的新技术,我们看到了市场对特定工作岗位的需求发生了变化。 例如,在汽车行业,包括 GM 在内的许多制造商正将重心转向电动汽车的生产,以便与绿色环保计划接轨。 能源行业不会消失,但能量的来源正在从燃油经济转向电力。 我们也可以用相似的方式看待人工智能,AI 也会导致工作需求转移到其他领域。 数据每天都在增长和变化,需要有人来帮助管理这些系统。 此外,仍需要有人来解决行业内最有可能受就业需求变化影响的复杂问题,如客户服务。 人工智能的重要方面及其对就业市场的影响,将会帮助人们转而投身于市场所需要的新领域。
隐私通常在数据隐私、数据保护和数据安全的背景下讨论。近年来,这些担忧推动政策制定者取得了更大的进展。 例如,在 2016 年,为了保护欧盟和欧洲经济区的个人数据,让人们能够更有效地控制自己的数据,欧盟出台了《通用数据保护条例》(GDPR) 法案。 在美国,有些州制定相关政策,如《加州消费者隐私法案》(CCPA) ,要求企业向消费者通报数据收集情况。 最近的这些立法迫使企业重新思考该如何存储和使用可识别个人身份的信息 (PII)。 因此,随着企业希望消除任何漏洞,杜绝一切监视、黑客攻击和网络攻击机会,在安全方面进行投资已成为他们日益重要的优先事项。
一些智能系统中的偏见和岐视事例引发了许多关于人工智能使用的伦理道德问题。 如果训练数据本身可能存在偏见,我们该如何防止偏见和岐视? 虽然企业的自动化工作通常都出于善意,但路透社(链接位于 ibm.com 外部)着重强调了在招聘实践中使用 AI 所产生的一些不可预测的后果。 在实现流程自动化和简化流程的工作中,Amazon 无意间对某些空缺技术职位的求职者形成了性别偏见,最终不得不放弃该项目。 随着此类事件浮出水面,《哈佛商业评论》(链接位于 ibm.com 外部)提出了关于在招聘实践中使用 AI 的其他尖锐问题,例如在评估职位候选人时可使用哪些数据。
偏见和岐视并不局限于人力资源职能领域;它们也可能出现在其他许多应用中,例如人脸识别软件、社交媒体算法,等等。
随着企业日益意识到 AI 的风险,围绕 AI 伦理和价值观的讨论也变得越来越活跃。 例如,在去年,IBM CEO Arvind Krishna 宣布 IBM 淘汰了通用的 IBM 人脸识别和分析产品,强调"IBM 坚决反对并且不会纵容使用任何技术(包括其他供应商提供的人脸识别技术)进行大规模监视、种族分析、侵犯基本人权和自由,或用于和我们的价值观以及信任与透明原则不符的任何目的。"
由于目前还没有重大立法来规范 AI 实践,因此也就没有真正的执法机制来确保践行符合道德规范的 AI。 目前激励企业遵守 AI 道德准则的因素主要是为了避免不符合道德规范的 AI 系统对利润造成负面影响。 为了填补这方面的空白,道德学家与研究人员开始合作研究道德规范框架,以指导社会中 AI 模型的构建和分发。 但是,目前这些成果仅作为指导,研究(链接位于 ibm.com 外部)(PDF, 1 MB) 表明,分散的责任加之缺乏对潜在后果的远见,不利于防止对社会造成危害。
由于人工智能并没有催生符合道德规范的机器,因此一些团队已经开始建立框架和概念,以解决目前的一些伦理问题,并规划该领域的未来工作。 虽然这些指导方针每天都会纳入更多结构,但业界对于添加以下原则达成了共识:
实现符合道德规范的 AI 对于 AI 的成功无疑起到至关重要的作用。 然而,值得注意的是,它对于促进社会向善也具有巨大的影响力。 我们已经在它与医疗保健领域(例如放射学)的整合过程中看到了这一点。 本次有关 AI 伦理的对话旨在确保我们出于善意使用这项技术,并且能够正确评估其设计中的潜在危害。
由于道德标准并不是私营领域中的数据工程师和数据科学家的主要关注点,因此出现了许多以促进人工智能领域道德行为准则为使命的组织。 以下组织和项目提供了有关实施符合道德规范的 AI 的资源,对于希望了解更多信息的读者会有所帮助:
IBM 还提出了自己对于 AI 伦理的观点,并建立了信任和透明原则,旨在帮助客户理解其在 AI 伦理方面的价值观。 IBM 的以下三个核心原则决定了其处理数据和 AI 的方法:
IBM 还确定了一系列重点领域,用于指导负责任地采用 AI 技术。 其中包括:
这些原则和重点领域构成了我们的 AI 伦理方法的基础。 要深入了解 IBM 关于伦理道德和人工智能的观点,请访问此处以阅读更多内容。
IBM 致力于确保自己产品的构建和使用都遵循伦理道德指导方针和原则。 IBM Watson Studio 是 IBM 为客户提供的产品之一,该产品改进了监督方式,更有效地遵守符合道德规范的 AI 标准。
IBM Watson Studio on IBM Cloud Pak for Data 有助于监控和管理模型,以实施可信的 AI。 组织可以直观展现和跟踪生产中的 AI 模型,验证和测试模型以降低监管风险,并提高 AI 生命周期的可视性。 立即注册 IBMid,并创建免费的 IBM Cloud 帐户。
要深入了解 IBM 关于 AI 伦理的观点,请在此处阅读更多内容。