发布日期:2024 年 6 月 5 日
撰稿人:Annie Badman、Matthew Kosinski
组织可以通过多种方式将 AI 融入网络安全实践。最常见的 AI 安全工具使用机器学习和深度学习来分析大量数据,包括流量趋势、应用程序使用情况、浏览习惯和其他网络活动数据。
这种分析使 AI 能够发现模式并建立安全基线。任何超出该基准的活动都会立即被标记为异常和潜在的网络威胁,因此可以迅速采取补救措施。
AI 安全工具还经常使用生成式 AI(借大型语言模型 (LLM) 实现普及)将安全数据转换为纯文本建议,从而简化安全团队的决策。
研究表明,AI 安全工具可显著提高威胁检测和事件响应能力。根据 IBM 在数据泄露成本报告中披露的数据,具有广泛安全 AI 和自动化功能的组织识别和遏制数据泄露的速度比没有 AI 工具的组织平均快 108 天。
此外,报告发现,广泛使用 AI 安全的组织平均可节省 176 万美元的应对数据泄露的成本。与不使用 AI 的公司的平均数据泄露成本相比,相差近 40%。
出于这些原因,对 AI 安全的投资正在增长。最近的一项研究预测,2023 年的 AI 安全市场价值为 201.9 亿美元,到 2032 年将达到 1,416.4 亿美元,年增长率为 24.2%。1
当今的网络威胁形势复杂。向云和混合云环境的转变导致数据蔓延和攻击面扩大,同时威胁参与者继续寻找利用漏洞的新方法。与此同时,网络安全专业人员仍然供不应求,仅在美国就有超过 700,000 个职位空缺。2
结果是,网络攻击现在更加频繁和代价更高。根据数据泄露成本报告,2023 年补救数据泄露的全球平均成本为 445 万美元,三年内增长了 15%。
AI 安全可以提供解决方案。通过自动执行威胁检测和响应,AI 可以更轻松地实时阻止攻击并捕获威胁参与者。AI 工具可以帮助完成各种工作,从通过识别和隔离恶意软件来防止恶意软件攻击,到通过识别和阻止重复登录尝试来检测暴力攻击。
借助 AI 安全,组织可以持续监控其安全运营,并使用机器学习算法来适应不断变化的网络威胁。
不在 AI 安全方面进行投资的代价高昂。未实施 AI 安全的组织面临的数据泄露平均成本为 536 万美元,比所有组织的平均成本高出 18.6%。即使是那些 AI 安全性有限的公司,也报告称平均数据泄露成本为 404 万美元。这比总体平均水平低 400,000 美元,比完全没有使用 AI 安全的客户低 28.1%。
尽管 AI 有诸多优点,但也带来了安全挑战,尤其是数据安全方面。AI 模型只能与其训练数据一样可靠。经篡改或有偏见的数据会导致误报或不准确的回复。例如,用于招聘决策的有偏见的培训数据可能会强化性别或种族偏见,使 AI 模型偏向某些人口群体而歧视其他群体。3
AI 工具还可以帮助威胁参与者更成功地利用安全漏洞。例如,攻击者可以利用 AI 自动发现系统漏洞或生成复杂的网络钓鱼攻击。
据 Reuters 报道,联邦调查局 (FBI) 发现 AI 导致的网络入侵事件有所增加。4 最近的一份报告还发现,75% 的高级网络安全专业人员面临更多的网络攻击,其中 85% 的人将其归因于恶意参与者使用了生成式 AI。5
尽管存在这些担忧,但研究表明,当前只有 24% 的生成式 AI 项目是安全的。
展望未来,许多组织将寻找方法在安全 AI 方面投入时间和资源,以在不损害 AI 伦理或安全的情况下享受人工智能带来的好处(参阅“AI 安全最佳实践”)。
AI 功能可以在增强网络安全防御方面提供显著优势。
AI 安全的一些最显著的优点包括:
尽管有很多好处,但采用新的 AI 工具可能会扩大组织的攻击面并带来多种安全威胁。
AI 带来的一些最常见的安全风险包括:
AI 系统依赖的数据集可能容易受到篡改、破坏和其他攻击。组织可以通过在整个 AI 生命周期(从开发到训练和部署)中保护数据完整性、保密性和可用性来降低这些风险。
威胁参与者可以将 AI 模型作为盗窃、逆向工程或未经授权操纵的目标。攻击者可能会通过篡改模型的架构、权重或参数(决定 AI 模型行为和性能的核心组件)来损害模型的完整性。
对抗攻击涉及操纵输入数据来欺骗 AI 系统,导致错误的预测或分类。例如,攻击者可能会生成对抗性示例,利用 AI 算法中的漏洞来干扰 AI 模型的决策或产生偏见。
同样,提示注入使用恶意提示来诱骗 AI 工具执行有害操作,例如泄露数据或删除重要文档。
如果安全团队在部署 AI 系统时不优先考虑安全和道德,他们就有可能侵犯隐私并加剧偏见和误报。只有通过合乎道德的部署,组织才能确保 AI 决策的公平性、透明度和问责制。
遵守法律和监管要求对于确保 AI 系统的合法和道德使用至关重要。组织必须遵守通用数据保护条例 (GDPR)、California Consumer Privacy Act (CCPA) 和欧盟 AI 法案等法规,否则将面临暴露敏感数据并面临严厉法律处罚的风险。
输入操纵攻击涉及更改输入数据来影响 AI 系统的行为或结果。攻击者可能会操纵输入数据来逃避检测,绕过安全措施或影响决策过程,这可能会导致结果有偏见或不准确。
例如,威胁参与者可以通过故意向 AI 系统提供不良的训练数据,从而在数据毒化攻击中破坏 AI 系统的输出。
当威胁参与者在供应链层面(包括开发、部署或维护阶段)以 AI 系统为目标时,就会发生供应链攻击。例如,攻击者可能会利用 AI 开发中使用的第三方组件、软件库或模块的漏洞,促成数据泄露或未经授权的访问。
随着时间的推移,AI 模型可能会出现漂移或衰退,从而导致性能或有效性下降。对手可以利用衰退或漂移的 AI 模型中的弱点来操纵输出。组织可以监控 AI 模型的性能、行为或准确性的变化,以保持其可靠性和相关性。
随着 AI 工具变得越来越先进和普及,AI 在网络安全领域的应用也变得多种多样且不断发展。
当今 AI 安全的一些最常见用例包括:
AI 可通过自动识别影子数据、监控数据访问异常以及在威胁发生时向网络安全专业人员发出警报来帮助保护混合云环境中的敏感数据。
威胁搜寻平台会主动搜索组织网络中存在恶意活动的迹象。
通过 AI 集成,这些工具可以通过分析大型数据集、识别入侵迹象以及更快地检测和响应高级威胁来变得更加先进和高效。
随着网络攻击和身份盗窃变得越来越普遍,金融机构需要保护其客户和资产的方法。
AI 通过自动分析交易数据以查找表明欺诈的模式来帮助这些机构。此外,机器学习算法可以实时适应新的和不断演变的威胁,使银行能够不断提高其欺诈检测能力并领先于威胁参与者。
AI 安全工具在与组织现有的安全基础设施集成时,往往最为有效。
例如,安全编排、自动化和响应 (SOAR) 是许多组织用来简化安全运营的软件解决方案。AI 可以与 SOAR 平台集成,实现日常任务和工作流程的自动化。这种集成可以实现更快的事件响应,并让安全分析师能够专注于更复杂的问题。
身份和访问管理 (IAM) 工具管理用户如何访问数字资源以及他们可以用这些资源做什么。其目标是阻止黑客,同时确保每个用户都只拥有他们所需的确切权限。
AI 驱动的 IAM 解决方案可以根据角色、职责和行为提供细粒度的访问控制,进一步确保只有授权用户才能访问敏感数据,从而改进这一流程。
AI 还可以通过使用机器学习分析用户行为模式来增强身份验证过程,并实现根据各个用户风险级别变化的自适应身份验证措施。
像 ChatGPT 这样的 LLM 使网络钓鱼攻击更容易进行且更难识别。不过,AI 也已成为对抗网络钓鱼的重要工具。
机器学习模型可帮助组织分析电子邮件和其他通信,查找网络钓鱼的迹象,提高检测准确性,减少网络钓鱼的成功尝试。AI 驱动的电子邮件安全解决方案还可以提供实时威胁情报和自动响应,以便在网络钓鱼攻击发生时及时发现。
为了平衡 AI 的安全风险和优点,许多组织制定了明确的 AI 安全战略,概述了利益相关者应如何开发、实施和管理 AI 系统。
虽然这些策略因公司而异,但一些常用的最佳实践包括:
数据治理和风险管理实践有助于保护 AI 流程中使用的敏感信息,同时保持 AI 的有效性。
通过使用相关且准确的训练数据集,并使用新数据定期更新 AI 模型,组织可以帮助确保其模型适应随着时间的推移不断变化的威胁。
将 AI 工具与现有的网络安全基础设施(例如威胁情报源和 SIEM 系统)相结合,有助于最大限度地提高效率,同时最大限度地减少部署新安全措施可能带来的中断和停机。
通过记录算法和数据来源来保持 AI 流程的透明度,并就 AI 的使用与利益相关者进行公开沟通,有助于识别和减少潜在的偏见和不公平。
虽然 AI 工具可以改善安全态势,但它们也可以从自身的安全措施中受益。
加密、访问控制和威胁监控工具可以帮助组织保护其 AI 系统及其使用的敏感数据。
持续监控 AI 系统的性能、合规性和准确性,可以帮助组织随着时间的推移满足监管要求并完善 AI 模型。
保护多个环境中的企业数据,遵守隐私法规并降低操作复杂性。
借助 IBM® Guardium,在整个数据安全生命周期中获得广泛的可见性、合规性和保护。
IBM® Verify 系列提供基于云的自动化本地部署功能,用于管理身份治理、管理员工队伍和消费者的身份与访问,以及控制特权帐户。
所有链接均为 ibm.com 外部链接
1. 到 2032 年,网络安全领域的 AI 市场规模将达到 1416.4 亿美元,CAGR 为 24.2%:Polaris Market Research。 Yahoo。 2024 年 3 月 12 日。
2. 为什么克服网络安全劳动力短缺对公司的成功很重要。Forbes。 2023 年 3 月 1 日。
3. AI 招聘工具可能会过滤掉最好的求职者。 BBC。 2024 年 2 月 16 日。
4. 美国高级官员表示,AI 进步有助长网络犯罪的风险。 Reuters。 2024 年 1 月 9 日。
5. Deep Instinct 研究发现,由生成式 AI 推动的网络安全攻击显著增加。 Business Wire。 2023 年 8 月 23 日。