生成式 AI 系统面临诸多独特的安全挑战。企业在保障大语言模型 (LLM) 访问安全的同时,也需要平衡模型的创造力与潜在风险——既要防范模型生成不当或错误内容,又要避免敏感信息泄露,更要杜绝模型执行违规或非法操作。
开放式 Web 应用程序安全项目 (OWASP) 已发布针对 LLM 及生成式 AI 应用的十大风险与漏洞首版清单。下图展示了这些漏洞在智能体式 AI 架构中的情况。
新增了身份与访问管理 (IAM) 组件,提供强大的用户身份和角色;通过控制对可能导致模型盗窃或泄露的应用功能和 API 的访问,降低模型盗窃的风险。
新增了智能体身份与访问控制(智能体访问控制),其功能类似于特权用户,用于将智能体访问权限与用户身份和角色相匹配;防范因模型幻觉、构造不当或模糊提示而导致的过度授权和异常智能体行为。
在整个架构中新增了生成式 AI 监控组件(生成式 AI 监控),以防范提示词注入、不安全输出处理、敏感数据泄露和过度依赖等问题。结合使用生成式 AI 监控和传统数据泄露监控,以防范基于提示词/响应的攻击,例如注入到 SQL 查询结果中的提示词,以及可能出现在 API 调用、数据库查询等结果中的敏感信息泄露。
通过新增配置管理和监控工具,以及围绕模型训练、微调和配置数据建立结构化的版本控制与发布流程,来缓解训练数据投毒攻击。
最后,新增了集成行为监控与事件关联组件,用于从各个组件的日志中识别潜在漏洞和攻击。新增了通知与告警组件,用于向系统操作员通知潜在问题;并新增了响应编排组件,用于自动化和/或协调对已识别问题的系统响应及人工响应。