利用开源 AI 和混合多云释放业务潜力

坐在三台电脑显示器前的男子

作者

Stephanie Susnjara

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

开源人工智能 (AI) 是当下的流行词,这受到最近发布的低成本大型语言模型 (LLM)(如 DeepSeek-1),以及开放模型(如 LlamaMistral AI)重要性日益凸显这两方面的推动。

这些突破性进展正吸引着公众的关注,但企业正面临一个严峻的问题:我们如何将这种热潮转化为实实在在的商业价值?

Linux Kubernetes 开源技术长期以来一直是关键系统的支柱,其提供了透明度、稳定性和安全性。它们所具有的协作特性促进了快速创新,这对于包括生成式 AI 在内的高级 AI 模型的发展至关重要。然而,真正的商业潜力在于将开源 AI 与混合多云环境相结合。这种强大的组合为企业提供了以下优势:

  • 无缝集成
  • 可扩展的灵活性
  • 增强安全性
  • 定制化解决方案
  • 通过协作实现创新

IBM 的一项研究显示,62% 的组织计划在 2025 年增加其 AI 投资,其中近一半的组织专注于利用开源工具进行他们的 AI 计划。

“我们正在为多云环境设计人工智能。”IBM AI、数据与自动化部门的副总裁兼高级合伙人 Shobhit Varshney 说道,“这意味着我们需要一个单一的自动化层,涵盖财务运营、安全与治理,且这一层要贯穿于每一个云平台。”

小球在轨道上滚动的三维设计

最新的 AI 新闻 + 洞察分析

在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。 

通过设计与混合实现整合

避免供应商锁定对企业来说至关重要,而开源 AI 自然契合混合多云模式。它允许企业将专有 AI 模型(如 AWS SageMaker 或 Google Vertex AI)与开源模型(如 IBM 的 Granite)进行集成。IBM 的 Granite 模型系列在 Apache 2.0 协议下开源,专为集成到混合多云环境而设计,让组织在跨不同平台部署和管理人工智能模型时拥有更多的自由和控制权。

“任何允许您在基础设施中管理模型的要素都可以很好地配合混合设计,”Varshnay 解释道,“尤其是当系统从一开始就被构建为跨多个云计算环境和本地 IT 基础设施无缝工作时。”

这种按设计混合的基础设施确保了 AI 模型能够在各个云平台间自由迁移,使企业能够根据自身需求选择最佳环境。

Mixture of Experts | 12 月 12 日,第 85 集

解码 AI:每周新闻摘要

加入我们世界级的专家小组——工程师、研究人员、产品负责人等将为您甄别 AI 领域的真知灼见,带来最新的 AI 资讯与深度解析。

规模化的灵活性

开源 AI 模型提供了无与伦比的灵活性,尤其是在组织的基础设施上扩展和部署模型时。虽然 Anthropic 的 Claude 或 OpenAI 的 ChatGPT 等第三方平台易于部署,但它们往往会使企业局限于特定的生态系统,且定制化程度有限。相比之下,开源模型赋予了组织完全的控制权,使它们能够创建满足独特业务需求的定制化解决方案。

这种灵活性对于跨多个云环境运营的企业至关重要。例如,使用 AWS 进行存储的公司可能希望部署 Google 或 OpenAI 的模型。然而,专有模型通常存在跨云兼容性方面的限制。开源模型可在各种平台之间无缝集成,使企业能够选择最佳的云供应商,而不会影响一致性或合规性。

增强的安全性和数据控制

自行托管开源 AI 模型可确保敏感数据留在组织的安全 IT 基础设施内,这对于有严格隐私要求的企业来说至关重要。通过避免使用第三方服务器,企业能够掌控自身数据,并降低与外部数据处理相关的风险,尤其是在处理涉及国际安全事务的数据时。

开源模型的另一个关键安全优势是能够控制模型本身的完整性。Anthropic 的研究强调了 AI 模型中代码操纵或嵌入式漏洞的潜在风险。即使是 Meta 或 Google 等值得信赖的提供商,恶意行为者也可能引入隐藏的威胁。

开源、自托管模型允许组织检查、验证和修改代码,从而确保更高的透明度和安全性,进而降低这些风险。

“有了开源,你就可以控制自己的命运,”Varshney 说。“你知道模型背后的机制、如何训练以及在您信任的环境中托管它。”

针对特定需求的定制和微调

除了灵活性之外,微调开源 AI 模型的能力也将改变游戏规则。通过微调,企业可以定制模型以满足行业特定的要求,从而使其更有价值。例如,在医疗保健或电信等行业微调开源模型(例如 Llama 或 Granite)可以帮助企业添加特定领域的知识,提高模型的准确性和性能。

专有模型在进行微调时通常需要将专有数据发送到供应商的服务器,而开源模型则与与专有模型不同,其允许企业在自定义过程中保持对数据的完全控制。

Varshney解释道:“如果采用一个小型模型,比如 Granite 模型,企业可以添加一个适配器,使其能够理解本企业的专业术语。例如,医疗领域的术语与电信领域不同,因此我可以对模型进行微调,让它更好地理解并服务于这个特定领域。”

 

性价比优势

在内部基础设施上对开源模型进行微调可以带来显著的性能益处,尤其是当使用专有数据对较小的模型进行微调时。

Varshney 表示:“如果用自己的专有数据对一个小型模型进行微调,它的表现将优于一个未经过微调的大型模型。”“这创造了一种成本与性能上的优势,因为对于特定的用例而言,经过微调的更小模型更加高效且有效。”

例如,IBM Granite 模型的早期概念验证结果表明,将一个小型 Granite 模型与企业数据相结合,可以在仅花费大型前沿模型一小部分成本的情况下(成本仅为大型前沿模型的三到二十三分之一)实现任务特定的性能,同时在关键基准测试中,其表现优于或与同规模的竞争对手相当。

这种能力在边缘计算场景中尤其具有优势,在那里,像 Granite 这样经过微调的更小模型能够在计算能力有限的设备上实现实时处理,从而消除了对云基础设施的需求。

Varshney补充说:“人们可以在远程 IoT 设备上部署一个小型模型,并解锁我们之前无法实现的用例。”

这种方法既能节省成本,又能提升能力,尤其适用于资源受限的远程环境。

通过协作实现创新

开源 AI 的协作性质加速了其创新的步伐。在全球开发者社区的共同努力下,这些模型得以快速进化,始终保持在 AI 发展的前沿。这种快速创新对于在 AI 驱动的环境中努力保持竞争优势的企业来说至关重要。

IBM 与 Red Hat 合作推出的 InstructLab 项目旨在普及 AI 微调的访问权限,使大型语言模型的定制化更加经济实惠且易于获取。

Varshney 指出:“在强化这些模型、使其更加健壮方面,社区发挥着关键作用。”

前进的道路是开放的

开源 AI 和混合多云的融合是寻求最大化其 AI 投资效用的企业的最终战略。通过在灵活的多云框架中整合开源模型,企业可以确保其 AI 解决方案能够在任何平台上实现可扩展、可适应且经过优化的部署,从而释放出巨大的商业价值。

IBM 的一项研究表明,51% 使用开源 AI 的企业报告称获得了积极回报,这凸显了这一方法所带来的切实且可衡量的影响。在 AI 驱动的未来,拥抱开源 AI 与混合多云的结合是推动增长的关键。

“开源是 AI 的未来。”Varshney 说。

通过在混合多云基础设施中采用开源 AI,企业不仅可以领先于新兴趋势,还可以在 AI 驱动的世界中提供持续的价值。

相关解决方案
IBM® watsonx.ai

使用面向 AI 构建器的新一代企业级开发平台 IBM watsonx.ai,可以训练、验证、调整和部署生成式 AI、基础模型和机器学习功能。使用一小部分数据,即可在很短的时间内构建 AI 应用程序。

深入了解 watsonx.ai
人工智能 (AI) 解决方案

借助 IBM 业界领先的 AI 专业知识和解决方案组合,让 AI 在您的业务中发挥作用。

深入了解人工智能解决方案
人工智能 (AI) 咨询服务

IBM Consulting AI 服务有助于重塑企业利用 AI 实现转型的方式。

深入了解人工智能服务
采取后续步骤

一站式访问跨越 AI 开发生命周期的功能。利用用户友好型界面、工作流并访问行业标准 API 和 SDK,生成功能强大的 AI 解决方案。

深入了解 watsonx.ai 预约实时演示