数据就是新的石油。它可为我们的经济提供动力,并推动科技的发展—尤其是生成式 AI。然而,为了让 AI 得到广泛采用,它必须值得信赖且足够安全。
正如 IBM 最新的《数据泄露成本报告》所展示的,业务中断会将泄露成本和监管罚款推向新的高度,而数据泄露的平均成本也高达 488 万美元。
然而,根据 IBM 商业价值研究院 (IBV) 针对网络安全和生成式 AI 所进行的一项调研,超过 94% 的企业领导者认为保护 AI 很重要,但只有 24% 的企业领导者表示,他们的 AI 项目将在未来六个月内引入网络安全组件。
此情况会使很多企业易于受到攻击,因为生成式 AI 也会带来新的风险,例如数据泄露、数据投毒和提示注入攻击。IBM 网络安全服务全球管理合伙人 Scott McCarthy 指出:企业也可能很难控制谁能访问其数据。
McCarthy 解释道:“确保控制措施到位非常重要,这样企业和客户的数据才不会被泄露。”
为了保护其数据和 AI,企业应制定人工智能治理并保障基础设施安全:数据、模型以及模型的使用情况。这是 IBM 用于保护生成式 AI 的框架—该框架可应用于其他环境,包括 Salesforce 的 Einstein(一套用于 CRM 的 AI 工具)。
企业可采取以下 3 个步骤来启动此流程。
Think 时事通讯
加入安全领导者的行列,订阅 Think 时事通讯,获取有关 AI、网络安全、数据和自动化的精选资讯。快速访问专家教程和阅读解释器,我们会将这些内容直接发送到您的收件箱。请参阅 IBM 隐私声明。
无论您处理的是客户数据还是业务数据,不同类型的数据都会产生不同的影响,且可能适用不同的政策和程序。
根据根据分类,可对这些数据施加适当的控制措施,比如客户数据、业务数据普查或公开数据,从而帮助确保合适的人员在正确的时间访问到正确的数据。
总之,“安全团队需成为业务推动者,而不仅仅是安全策略和程序的看门人”,McCarthy 认为。