企业在 AI 领域正面临着日益复杂、不断变化的全球监管环境。IBM 的 AI 伦理方法可在创新与责任之间取得平衡,帮助您大规模采用可信赖的 AI。
利用技术促进更合乎道德的未来
案例研究:建立对 AI 的信任
Data & Trust Alliance 与 IBM 共同建立的新数据来源标准提供了首创的元数据分类法,能够为数据来源的透明度提供支持。
这一认可肯定了 IBM 在提供企业级基础模型、帮助客户加速将生成式 AI 引入其业务工作流程,同时降低与基础模型相关的风险等方面采取的差异化方法。
《欧盟 AI 法案》开创了 AI 治理的新时代。为了实现合规性,您需要了解哪些信息和采取哪些行动?
三位 IBM 领导者就新任首席 AI 官在任职后的头 90 天会面临的重大机遇和挑战发表了见解。
了解有助于降低基础模型所带来的独特风险的策略和工具。
了解负责任地开发和部署 AI 技术如何能更好地造福于人类和地球。
IBM 领导者 Christina Montgomery 和 Joshua New 概述了政策制定者减轻深度造假危害的三个关键优先事项。
好的设计不会为了创造无缝体验而牺牲透明度。
经适当校准,AI 可以帮助人类做出更公平的选择。
当系统被用于制定关键决策时,AI 必须安全稳健。
透明度可以增强信任,提高透明度的最佳途径是信息披露。
AI 系统必须优先考虑和保障使用者的隐私和数据权利。
IBM AI 道德委员会是 IBM 信任承诺的核心。其使命是:
该委员会由 Francesca Rossi 和 Christina Montgomery 共同担任主席,开展了一系列工作,提供了 AI 伦理方面的思想领导力、政策倡导以及教育和培训,以推动负责任的创新,并促进 AI 和新兴技术的发展与进步。它还负责评估可能引发道德问题的用例。
委员会是 IBM 的重要机制,IBM 通过它要求公司和所有 IBM 员工恪守我们的价值观和承诺,履行我们对技术道德发展和部署的承诺。
通过 2023 年“IBM 影响力”报告了解有关道德影响的更多信息
了解有关 Francesca 的更多信息
了解有关 Christina 的更多信息
IBM 倡导在创新与责任和信任之间取得平衡的政策,旨在为所有人打造更美好的未来。
IBM 的五项最佳实践涵盖并平衡了对整个 AI 生命周期中决策的人工监督、代理和问责。
IBM 为政策制定者提供的缓解深度伪造危害的建议。
IBM 建议政策制定者维护人工智能的开放式创新生态系统。
这些标准可以为 AI 的审计人员和开发人员提供参考,告诉他们在偏见审计中应该考虑哪些受保护特征,以及如何将这些特征转化为进行评估所需的数据点。
IBM 建议政策制定者考虑两类不同的数据驱动型商业模式,并根据其对消费者带来的风险来制定相应的监管义务。
政策制定者应该了解神经技术带来的隐私风险,以及它们的工作原理和运行所需的数据。
为了提升测试、评估、缓解策略的采用率,需要重视五个优先事项,最大限度减少 AI 系统中的偏见。
企业应利用基于风险的 AI 治理策略框架和有针对性的策略,开发和运营值得信赖的 AI。
IBM 全球负责任的 AI 计划负责人 Heather Domin 博士探讨了监管、合作和技能需求如何塑造 AI 治理态势
IBM 和圣母大学的专家概述了从 AI 伦理投资中获得最佳投资回报的建议。
在 IBM 的帮助下,Partnership on AI 的新报告探讨了开放基础模型的保障措施。
Data & Trust Alliance 与 IBM 共同编写了新的政策路线图,就如何平衡 AI 创新与 AI 安全提供了建议。
在“未来主义者峰会”上,IBM 首席隐私和信任官 Christina Montgomery 与 Partnership for AI 首席执行官 Rebecca Finley 讨论了开放式创新与 AI 安全性之间的重要关系。
在圣母大学-IBM 技术伦理实验室的支持下,2024 年将开展十个研究项目。
在圣母大学-IBM 技术伦理实验室的支持下,普利策中心发起了 AI Spotlight Series,这是一项全球培训计划。
IBM 和 Meta 与全球 50 多家创始成员和合作机构合作成立了 AI Alliance。
世界经济论坛与 IBM 合作,提供了三份简报来帮助指导实现负责任的 AI 转型。