DeepSeek-R1 这一备受热议的开源基础模型,能助力企业在开发专属定制模型时抢占先发优势,进而提升投资回报率。但鲜为人知的是人工智能治理的作用。所有形式的 AI 和机器学习都需要治理,但来自第三方提供商的开源模型有独特的考虑因素。若想让组织的人工智能应用实现安全、透明且合规负责的落地,人工智能治理的构建至关重要。
鉴于这些发展,我们来讨论一下如何利用开源模型(如 DeepSeek 等)的优势,同时确定人工智能治理如何缓解一些主要挑战。
IBM 的一项研究显示,51% 使用开源工具的企业实现了正向投资回报率,而未使用开源工具的企业这一比例仅为 41%。这些新兴的小型开源模型进一步印证了 IBM 关于“AI 的未来应秉持开放理念”的立场。这一理念将帮助企业在平衡效率与信任安全的前提下,充分释放人工智能的价值。尽管许多技术领导者对 DeepSeek 的影响感到惊讶和担忧,但 IBM 长期以来一直是更开放方法的支持者。“更小、更高效的模型可以在没有大规模、专有系统的情况下取得真正的结果。”IBM CEO Arvind Krishna 近期在《财富》杂志上发表的一篇文章中表示。
在使用开源基础模型时,人工智能治理在整个模型生命周期中非常关键。从风险评估开始,组织必须首先确定模型是否可以安全使用。适用于通用场景或个人使用的安全标准,未必适配企业级用例。
以 DeepSeek-R1 为例,组织可能认为自托管模型或通过 IBM® watsonx.ai 等 AI 工作室产品运行相对安全。然而,使用 DeepSeek 应用程序可能会带来数据和安全方挑战。出于这个原因,许多国家或地区已禁止使用 DeepSeek 应用程序。
模型通过审批后,模型验证人员可将其纳入模型资产清单。该清单不仅跟踪模型的使用情况与性能表现,还会明确模型的适用用例。这一模型集合既方便 AI 开发者快速定位可用模型,也为合规保障、数据及安全团队提供了模型使用轨迹的追踪能力。
AI 说明书贯穿模型全生命周期采集核心信息,提升模型内置逻辑与使用流程的透明度。说明书涵盖所采用的基础模型、提示词参数、模板及评估结果等关键细节。
部分开源模型存在安全隐患,提示词注入与越狱攻击的实施门槛较低,可能导致模型生成有害输出。而模型可观测性方案与安全防护机制能够实时监控模型健康状态、预测准确性及数据漂移情况,并有效拦截仇恨言论、亵渎性内容等各类有害信息。
没有人工智能治理,AI 的负面影响是巨大的。在欧盟,使用 AI 与个人进行互动的组织必须遵守《欧盟 AI 法案》。若违反相关规定,企业可能面临最高 3500 万欧元罚款或年度营业额 7% 的处罚(以金额较高者为准)。
与此同时,企业品牌形象、声誉以及客户与合作伙伴的信任度也将面临重大风险。想象一下,如果你的组织泄露了客户的个人数据,或者在与客户的互动中侮辱或欺骗客户。客户会在意最初问题是出在团队还是基础模型,最终都会损害品牌。若缺乏完善的安全防护机制,将生成式 AI 应用于任何生产级用例都将面临极高风险。
人工智能治理能够帮助组织管控并缓释各类风险,赋能其安全、合规且负责任地应用 AI 技术。为支撑这一实践落地,IBM® Research 研发了人工智能风险图谱——这是一款专为帮助机构识别并梳理各类人工智能风险而设计的工具。
强大的人工智能治理框架和解决方案对组织至关重要,但从头开始构建会是一个漫长、成本高昂的过程,可能会损害组织的投资回报率。对于希望高效、安全、负责任地扩展 AI 的组织,我们构建了 watsonx.governance。
Watsonx.governance 等人工智能治理解决方案,能助力企业管理层判断是否允许 DeepSeek 等系列模型接入组织的 AI 体系,以及如何规范其应用流程。通过与 IBM® Guardium AI Security 集成,watsonx.governance 还可以识别模型的未知实例并管理特定风险,例如越狱、DDOS 和 PII 数据提示。该解决方案可对任意类型的模型进行治理,且支持任意云环境或本地部署。IBM 的人工智能风险图谱
DeepSeek 只是一系列开源创新成果中的代表案例,这一现象也提醒我们:与以往技术不同,人工智能领域的每一项创新突破,都必须将治理与安全置于组织战略的核心位置。二者并非可选项,而是不可或缺的基础性要求。
开源小型语言模型以具有竞争力的价格提供企业级性能和透明度。
借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。
通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。