AI 伦理
IBM 采用多学科、多维度方法,推动负责任的 AI 的发展。阅读我们关于基础模型机会、风险和缓解措施的观点。
了解更多信息
与 watsonx for AI 伦理相关的圆圈和规则
建立对 AI 的信任

AI 已融入到我们的日常生活、商务、政府、医疗等领域。IBM® 致力于帮助个人和组织负责任地采用 AI。只有将伦理原则嵌入到 AI 应用和流程中,我们才能构建基于信任的系统。

将传统机器学习与全新生成式 AI 功能(由基础模型提供支持)相结合的 watsonx.ai。

AI Academy

观看本集:AI 的信任、透明度和治理

了解 AI 治理如何帮助构建负责任的 AI 工作流程
我们的原则和支柱

信任与透明度原则是区分 IBM AI 伦理方法的指导价值观。

AI 的目的是增强人类智慧

IBM 认为 AI 应让我们所有人都能更好地工作,AI 时代的益处应该惠及大众,而不仅仅是一小部分的精英阶层

数据和洞察属于其创建者

IBM 客户的数据属于他们自己,洞察也属于他们自己。我们认为,政府数据政策应公平公正,并优先考虑开放性。

技术必须是透明的、可解释的

企业必须清楚是谁在训练其 AI 系统,训练中使用了哪些数据,最重要的是,AI 系统的算法是基于哪些数据生成了建议。

信任与透明度原则
支柱

此原则得到了信任支柱的支持,这是我们 AI 伦理的基本属性。

 

可解释性

好的设计不会为了创造无缝体验而牺牲透明度。

AI Explainability 360

公平性

经适当校准,AI 可以帮助人类做出更公平的选择。

AI Fairness 360

稳健性

当系统被用于制定关键决策时,AI 必须安全稳健。

Adversarial Robustness 360

透明度

透明度可以增强信任,提高透明度的最佳途径是信息披露

AI FactSheets 360

隐私

AI 系统必须优先考虑和保障使用者的隐私和数据权利。

AI Privacy 360 工具包

介绍 watsonx Watsonx 是我们即将推出的下一代企业级 AI 和数据平台,旨在大幅提升 AI 在企业中的应用。 了解更多关于 watsonx 平台的信息 watsonx.ai

现已 上线 -轻松训练、验证、调整和部署基础和机器学习模型。 

探索 watsonx.ai
watsonx.data

现已推出 - 随时随地为您的所有数据扩展 AI 工作负载。

探索 watsonx.data
watsonx.governance

启用负责任、透明和可解释的数据和 AI 工作流程。watsonx.governance 预计将于 10 月正式发布。

探索 watsonx.governance

生成式 AI 的伦理

当合乎道德标准的设计被负责任地推向市场时,生成式 AI 将提供前所未有的机会,并造福企业和社会

基础模型:机遇、风险和缓解措施 阅读我们的观点
针对生成式 AI 的 CEO 指南:平台、数据、治理和伦理

人类价值观是负责任的 AI 的核心。

AI 治理的迫切性

IBM 和数据与信任联盟提供关于治理需求的洞察信息,尤其是在生成式 AI 时代。

《写给政策制定者的基础模型指南》

基于风险和环境的 AI 监管方法,可以减轻潜在风险,包括基础模型带来的风险。

在整个组织将原则付诸行动

IBM 的 AI 道德委员会是一个跨学科的中央机构,旨在支持整个 IBM 的道德、负责任和值得信赖的 AI 文化。

该委员会由 Francesca Rossi 和 Christina Montgomery 担任联合主席,其使命是支持 IBM 道德政策、实践、通信、研究、产品和服务的集中治理、审查和决策流程。通过灌输 IBM 长期以来的原则和伦理思想,该委员会作为一种机制, 确保整个 IBM 和所有员工对公司价值观负责。

了解更多信息

阅读 2022 年 IBM 影响力报告

 

Francesca Rossi

了解有关 Francesca 的更多信息

Christina Montgomery

了解有关 Christina 的更多信息

我们的立场

写给政策制定者的基础模型指南

IBM 对基础模型带来的机遇及其风险和潜在缓解措施的看法。

了解更多信息

基础模型:机遇、风险和缓解措施

了解风险和潜在的缓解措施是负责任地构建和使用基础模型的关键第一步。

立即阅读

针对数据驱动型商业模式的精准监管

这份白皮书概述了有关数据驱动型商业模式的风险,并面向政策制定者提供了七项建议。

了解更多信息

针对 AI 的精准监管

企业应利用基于风险的 AI 治理策略框架和有针对性的策略,开发和运营值得信赖的 AI。

了解更多信息

负责任地推进神经技术发展

关于脑机接口隐私风险的白皮书。

了解更多信息

数据责任

收集、存储、管理或处理数据的企业,有义务负责任地处理数据,确保所有权、隐私、安全性和信任。

了解更多信息

面部识别

IBM 不再提供面部识别或分析软件。我们认为,精准监管可提供合理的治理框架。

了解更多信息

减少 AI 偏见

为了提升测试、评估、缓解策略的采用率,需要重视五个优先事项,最大限度减少 AI 系统中的偏见。

了解更多信息

学会信任 AI 系统

关于智能机器时代下的问责、合规和伦理问题的首创性论文。

立即阅读

关于在 AI 偏见审计中保护高风险群体的标准

IBM 关于如何在 AI 偏见审计中保护高风险群体的观点。

立即阅读
借助广泛合作和内部举措,推进 AI 伦理 美国商会

人性化的自动化:AI 如何彻底改变我们的政府。

了解更多信息
Notre Dame-IBM 技术伦理实验室

解决因使用科技解决社会问题所引发的伦理问题。

了解更多信息
欧盟委员会 AI 专家组

制定伦理准则,实现值得信赖的 AI。

了解更多信息
《人工智能伦理罗马倡议》(Rome Call for AI ethics)

IBM 与梵蒂冈合作,支持 AI 伦理准则。

了解更多信息
AI 合作关系

汇聚全球不同的声音,确定实现有益 AI 的最佳实践。

了解更多信息
《AI 的日常伦理》(Everyday Ethics for AI)

关于在 AI 设计与开发中嵌入伦理的指南。

了解更多信息
拥抱我们的量子未来 (Embracing Our Quantum Future)

面向未来,未雨绸缪。

了解更多信息
数据与信任联盟

通过负责任地使用数据和 AI,将信任付诸实践。

了解更多信息
超越合规性,推进 AI 伦理

探索 AI 伦理如何从抽象理论走向具体实践。

阅读报告

IBM 商业价值研究院

了解值得信赖的 AI 如何创造商业价值。

了解更多信息