影子 AI 是指员工或最终用户擅自使用的任何人工智能 (AI) 工具或应用程序,其未获得信息技术 (IT) 部门正式批准或监督。
影子 AI 的一个常见例子是 未经授权使用 生成式人工智能(生成式 AI) 应用程序,如 OpenAI 的 ChatGPT ,以自动执行文本编辑和数据分析等任务。员工经常使用这些工具来提高工作效率和加快流程。然而,由于 IT 团队并不知道这些应用程序正在被使用,因此员工可能会在不知情的情况下将组织暴露在涉及 数据安全、合规性和公司声誉的重大风险中。
对于 CIO 和 CISO 来说,制定一项包含 人工智能治理 和安全 措施的稳健 AI 战略 是有效 管理 AI 风险的关键。通过制定强调合规性和 网络安全重要性的 AI 政策 ,领导者可以 管理影子 AI 的风险 , 同时拥抱 AI 技术的好处。
要了解 影子 AI 的影响,最好将其与 影子 IT 区分开来。
从 2023 年到 2024 年,企业员工对 生成式 AI 应用的采用率从 74% 增长到 96%,因为企业开始采用 AI 技术。1 随着这一增长,影子 AI 也随之兴起。如今,超过三分之一 (38%) 的员工承认在未经雇主许可的情况下使用 AI 工具 共享敏感的工作信息。2
影子 AI 可能使公司面临多种风险,包括数据泄露、不合规罚款和严重的声誉损害:
尽管存在风险,但出于几个原因, 影子 AI 正变得越来越普遍。组织正在拥抱 数字化转型,并进而整合 AI 技术,以重新构想工作流程和决策。
用户友好型 AI 工具的激增意味着员工可以轻松访问先进的 AI 解决方案来增强他们的能力。许多 AI 应用程序都以软件即服务 (SaaS) 产品的形式提供,个人可以快速采用这些工具,而无需 IT 或安全团队参与。通过 AI 的民主化,员工正在寻找新的方法,以便:
影子 AI 在组织中以各种方式表现出来,通常是由效率和创新的需求驱动的。影子 AI 的常见例子包括人工智能驱动的聊天机器人、用于数据分析的 ML 模型、营销自动化工具和数据可视化工具。
在客户服务方面,团队可能会求助于 未经授权的 AI 聊天机器人 来生成咨询答案。例如,客户服务代表在回答客户的问题时,可能会询问 聊天机器人 ,而不是查看公司批准的材料。这可能会导致信息不一致或错误,与客户之间可能出现沟通不畅,如果代表的问题包含敏感的 公司数据,还可能存在安全风险。
为了管理 影子 AI 的风险,组织可以考虑采取几种方法,鼓励 负责任地使用 AI ,同时认识到灵活性和创新的必要性:
IT 部门、 安全团队 和业务部门之间的开放式对话有助于更好地了解 AI 的功能 和局限性。协作文化可以帮助组织确定哪些 AI 工具 是有益的,同时也有助于确保遵守 数据保护 协议。
围绕 AI 使用 的防护网 可以提供一个安全网,帮助确保员工只在规定的参数范围内使用经批准的工具。 防护网 可包括有关外部 AI 使用的政策、用于测试 AI 应用 的沙盒环境或用于阻止未经授权的外部平台的防火墙。
要消除所有影子 AI 可能并不可行。因此,组织可以采用网络监控工具来跟踪应用程序的使用情况,并建立 访问控制 来限制未经批准的软件。定期审计和积极监控通信渠道也有助于识别是否以及如何使用未经授权的 应用程序 。
影子 AI 的态势在不断发展,给组织带来了新的挑战。公司可以建立定期沟通渠道,例如时事通讯或季度更新,以告知员工有关影子 AI 及其相关风险。
通过增强对使用未经授权的 AI 工具的后果的认识,组织可以培养负责任的 AI 使用文化。这种理解可能会鼓励员工在部署新的应用程序之前寻求批准的替代方案或咨询 IT 人员。
所有链接均为 ibm.com 外部链接
1敏感数据共享风险随生成式 AI 的激增而加剧,Infosecurity Magazine,2024 年 7 月 17 日。
2超过三分之一的员工秘密与 AI 分享工作信息,Infosecurity Magazine,2024 年 9 月 26 日。
3五分之一的 CISO 承认员工通过生成式 AI 泄漏数据, Infosecurity Magazine,2024 年 4 月 24 日。
4第 99 条:处罚,欧盟《人工智能法案》。
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。