AI 已融入到我们的日常生活、商务、政府、医疗等领域。IBM® 致力于帮助个人和组织负责任地采用 AI。只有将伦理原则嵌入到 AI 应用和流程中,我们才能构建基于信任的系统。
将传统机器学习与全新生成式 AI 功能(由基础模型提供支持)相结合的 watsonx.ai。
观看本集:AI 的信任、透明度和治理
IBM 宣布,watsonx Granite 模型系列的首批模型正式发布 - 这是一组生成式 AI 模型,旨在推动生成式 AI 融入业务应用程序和工作流程。
TheStreet 采访了 IBM 首席隐私和信任官 Christina Montgomery,探讨了公司如何专注于保障安全、负责任的 AI
这些承诺以安全、保障和信任等关键原则为中心,并支持可信任 AI 的发展。
IBM CEO Arvind Krishna 分享了智能 AI 监管的三大核心原则。
在一个新系列中,IBM 和数据与信任联盟提供了关于企业如何在生成式 AI 时代赢得信任的洞察信息。
了解风险和潜在的缓解措施是负责任地构建和使用基础模型的关键第一步。
IBM AI 伦理全球主管 Francesca Rossi 向美国国家 AI 咨询委员会介绍了 AI 的未来。
信任与透明度原则是区分 IBM AI 伦理方法的指导价值观。
IBM 认为 AI 应让我们所有人都能更好地工作,AI 时代的益处应该惠及大众,而不仅仅是一小部分的精英阶层。
IBM 客户的数据属于他们自己,洞察也属于他们自己。我们认为,政府数据政策应公平公正,并优先考虑开放性。
企业必须清楚是谁在训练其 AI 系统,训练中使用了哪些数据,最重要的是,AI 系统的算法是基于哪些数据生成了建议。
此原则得到了信任支柱的支持,这是我们 AI 伦理的基本属性。
好的设计不会为了创造无缝体验而牺牲透明度。
经适当校准,AI 可以帮助人类做出更公平的选择。
当系统被用于制定关键决策时,AI 必须安全稳健。
透明度可以增强信任,提高透明度的最佳途径是信息披露。
AI 系统必须优先考虑和保障使用者的隐私和数据权利。
现已 上线 -轻松训练、验证、调整和部署基础和机器学习模型。
现已推出 - 随时随地为您的所有数据扩展 AI 工作负载。
启用负责任、透明和可解释的数据和 AI 工作流程。watsonx.governance 预计将于 10 月正式发布。
IBM 的 AI 道德委员会是一个跨学科的中央机构,旨在支持整个 IBM 的道德、负责任和值得信赖的 AI 文化。
该委员会由 Francesca Rossi 和 Christina Montgomery 担任联合主席,其使命是支持 IBM 道德政策、实践、通信、研究、产品和服务的集中治理、审查和决策流程。通过灌输 IBM 长期以来的原则和伦理思想,该委员会作为一种机制, 确保整个 IBM 和所有员工对公司价值观负责。
了解有关 Francesca 的更多信息
了解有关 Christina 的更多信息
写给政策制定者的基础模型指南
IBM 对基础模型带来的机遇及其风险和潜在缓解措施的看法。
基础模型:机遇、风险和缓解措施
了解风险和潜在的缓解措施是负责任地构建和使用基础模型的关键第一步。
针对数据驱动型商业模式的精准监管
这份白皮书概述了有关数据驱动型商业模式的风险,并面向政策制定者提供了七项建议。
针对 AI 的精准监管
企业应利用基于风险的 AI 治理策略框架和有针对性的策略,开发和运营值得信赖的 AI。
负责任地推进神经技术发展
关于脑机接口隐私风险的白皮书。
数据责任
收集、存储、管理或处理数据的企业,有义务负责任地处理数据,确保所有权、隐私、安全性和信任。
面部识别
IBM 不再提供面部识别或分析软件。我们认为,精准监管可提供合理的治理框架。
减少 AI 偏见
为了提升测试、评估、缓解策略的采用率,需要重视五个优先事项,最大限度减少 AI 系统中的偏见。
学会信任 AI 系统
关于智能机器时代下的问责、合规和伦理问题的首创性论文。
关于在 AI 偏见审计中保护高风险群体的标准
IBM 关于如何在 AI 偏见审计中保护高风险群体的观点。
人性化的自动化:AI 如何彻底改变我们的政府。
解决因使用科技解决社会问题所引发的伦理问题。
制定伦理准则,实现值得信赖的 AI。
IBM 与梵蒂冈合作,支持 AI 伦理准则。
汇聚全球不同的声音,确定实现有益 AI 的最佳实践。
关于在 AI 设计与开发中嵌入伦理的指南。
面向未来,未雨绸缪。
通过负责任地使用数据和 AI,将信任付诸实践。
探索 AI 伦理如何从抽象理论走向具体实践。