开源人工智能 (AI) 是当下的流行词,这受到最近发布的低成本大型语言模型 (LLM)(如 DeepSeek-1),以及开放模型(如 Llama 和 Mistral AI)重要性日益凸显这两方面的推动。
这些突破性进展正吸引着公众的关注,但企业正面临一个严峻的问题:我们如何将这种热潮转化为实实在在的商业价值?
Linux 和 Kubernetes 等开源技术长期以来一直是关键系统的支柱,其提供了透明度、稳定性和安全性。它们所具有的协作特性促进了快速创新,这对于包括生成式 AI 在内的高级 AI 模型的发展至关重要。然而,真正的商业潜力在于将开源 AI 与混合多云环境相结合。这种强大的组合为企业提供了以下优势:
IBM 的一项研究显示,62% 的组织计划在 2025 年增加其 AI 投资,其中近一半的组织专注于利用开源工具进行他们的 AI 计划。
“我们正在为多云环境设计人工智能。”IBM AI、数据与自动化部门的副总裁兼高级合伙人 Shobhit Varshney 说道,“这意味着我们需要一个单一的自动化层,涵盖财务运营、安全与治理,且这一层要贯穿于每一个云平台。”
避免供应商锁定对企业来说至关重要,而开源 AI 自然契合混合多云模式。它允许企业将专有 AI 模型(如 AWS SageMaker 或 Google Vertex AI)与开源模型(如 IBM 的 Granite)进行集成。IBM 的 Granite 模型系列在 Apache 2.0 协议下开源,专为集成到混合多云环境而设计,让组织在跨不同平台部署和管理人工智能模型时拥有更多的自由和控制权。
“任何允许您在基础设施中管理模型的要素都可以很好地配合混合设计,”Varshnay 解释道,“尤其是当系统从一开始就被构建为跨多个云计算环境和本地 IT 基础设施无缝工作时。”
这种按设计混合的基础设施确保了 AI 模型能够在各个云平台间自由迁移,使企业能够根据自身需求选择最佳环境。
开源 AI 模型提供了无与伦比的灵活性,尤其是在组织的基础设施上扩展和部署模型时。虽然 Anthropic 的 Claude 或 OpenAI 的 ChatGPT 等第三方平台易于部署,但它们往往会使企业局限于特定的生态系统,且定制化程度有限。相比之下,开源模型赋予了组织完全的控制权,使它们能够创建满足独特业务需求的定制化解决方案。
这种灵活性对于跨多个云环境运营的企业至关重要。例如,使用 AWS 进行存储的公司可能希望部署 Google 或 OpenAI 的模型。然而,专有模型通常存在跨云兼容性方面的限制。开源模型可在各种平台之间无缝集成,使企业能够选择最佳的云供应商,而不会影响一致性或合规性。
自行托管开源 AI 模型可确保敏感数据留在组织的安全 IT 基础设施内,这对于有严格隐私要求的企业来说至关重要。通过避免使用第三方服务器,企业能够掌控自身数据,并降低与外部数据处理相关的风险,尤其是在处理涉及国际安全事务的数据时。
开源模型的另一个关键安全优势是能够控制模型本身的完整性。Anthropic 的研究强调了 AI 模型中代码操纵或嵌入式漏洞的潜在风险。即使是 Meta 或 Google 等值得信赖的提供商,恶意行为者也可能引入隐藏的威胁。
开源、自托管模型允许组织检查、验证和修改代码,从而确保更高的透明度和安全性,进而降低这些风险。
“有了开源,你就可以控制自己的命运,”Varshney 说。“你知道模型背后的机制、如何训练以及在您信任的环境中托管它。”
除了灵活性之外,微调开源 AI 模型的能力也将改变游戏规则。通过微调,企业可以定制模型以满足行业特定的要求,从而使其更有价值。例如,在医疗保健或电信等行业微调开源模型(例如 Llama 或 Granite)可以帮助企业添加特定领域的知识,提高模型的准确性和性能。
专有模型在进行微调时通常需要将专有数据发送到供应商的服务器,而开源模型则与与专有模型不同,其允许企业在自定义过程中保持对数据的完全控制。
Varshney解释道:“如果采用一个小型模型,比如 Granite 模型,企业可以添加一个适配器,使其能够理解本企业的专业术语。例如,医疗领域的术语与电信领域不同,因此我可以对模型进行微调,让它更好地理解并服务于这个特定领域。”
在内部基础设施上对开源模型进行微调可以带来显著的性能益处,尤其是当使用专有数据对较小的模型进行微调时。
Varshney 表示:“如果用自己的专有数据对一个小型模型进行微调,它的表现将优于一个未经过微调的大型模型。”“这创造了一种成本与性能上的优势,因为对于特定的用例而言,经过微调的更小模型更加高效且有效。”
例如,IBM Granite 模型的早期概念验证结果表明,将一个小型 Granite 模型与企业数据相结合,可以在仅花费大型前沿模型一小部分成本的情况下(成本仅为大型前沿模型的三到二十三分之一)实现任务特定的性能,同时在关键基准测试中,其表现优于或与同规模的竞争对手相当。
这种能力在边缘计算场景中尤其具有优势,在那里,像 Granite 这样经过微调的更小模型能够在计算能力有限的设备上实现实时处理,从而消除了对云基础设施的需求。
Varshney补充说:“人们可以在远程 IoT 设备上部署一个小型模型,并解锁我们之前无法实现的用例。”
这种方法既能节省成本,又能提升能力,尤其适用于资源受限的远程环境。
开源 AI 的协作性质加速了其创新的步伐。在全球开发者社区的共同努力下,这些模型得以快速进化,始终保持在 AI 发展的前沿。这种快速创新对于在 AI 驱动的环境中努力保持竞争优势的企业来说至关重要。
IBM 与 Red Hat 合作推出的 InstructLab 项目旨在普及 AI 微调的访问权限,使大型语言模型的定制化更加经济实惠且易于获取。
Varshney 指出:“在强化这些模型、使其更加健壮方面,社区发挥着关键作用。”
开源 AI 和混合多云的融合是寻求最大化其 AI 投资效用的企业的最终战略。通过在灵活的多云框架中整合开源模型,企业可以确保其 AI 解决方案能够在任何平台上实现可扩展、可适应且经过优化的部署,从而释放出巨大的商业价值。
IBM 的一项研究表明,51% 使用开源 AI 的企业报告称获得了积极回报,这凸显了这一方法所带来的切实且可衡量的影响。在 AI 驱动的未来,拥抱开源 AI 与混合多云的结合是推动增长的关键。
“开源是 AI 的未来。”Varshney 说。
通过在混合多云基础设施中采用开源 AI,企业不仅可以领先于新兴趋势,还可以在 AI 驱动的世界中提供持续的价值。