企业可以根据他们为新模型设想的应用程序和用例,在不同的部署方法之间进行选择。以下是一些常见的模型部署方法:
模型部署可以根据组织的 IT 系统以及已有的 DevOps 或 MLOps 流程有所不同。但这一过程通常包括以下一系列步骤:
为了保持一致性,无论选择何种部署方法和环境,模型及其依赖项都被打包到一个容器中(一种称为容器化的技术)。然后,将打包的模型加载到生产环境中。
有大量的平台和工具可以帮助企业加快模型部署工作流。在采用这些技术之前,组织必须评估其与现有技术堆栈和 IT 生态系统的兼容性。
版本控制系统和模型注册库记录模型版本及其相关的数据源和元数据。选项包括数据版本控制 (DVC)、Git、GitLab 以及权重和偏差。
Kubernetes 是一个知名的开源容器编排平台,用于调度和自动化部署容器化应用程序。Kubernetes 和 Docker 通常是配合使用的。类似的编排工具包括 Red Hat® OpenShift®、Amazon Elastic Container Service (ECS) 以及像 Azure Kubernetes Service (AKS) 和 IBM Cloud Kubernetes Service 这样的托管 Kubernetes 解决方案。
有多个平台可用于部署模型。例如,BentoML 是一个基于 Python 的平台,用于将机器学习模型作为应用程序编程接口 (API) 端点提供,甚至可以将大语言模型 (LLM) 作为 API 端点提供。Kubeflow 可促进 Kubernetes 上的模型部署,而 TensorFlow Serving 是 TensorFlow 模型的开源服务系统。
与此同时,其他平台不仅可以协助部署,还可以管理机器学习工作流。其中包括 Amazon SageMaker、Azure Machine Learning、Google Vertex AI Platform、IBM® Watson Studio 和 MLFlow。
CI/CD 工具可自动执行模型部署和测试。常见的工具包括 Continuous Machine Learning (CML)、GitHub Actions、GitLab CI/CD 和 Jenkins。
部署深度学习模型需要大量活动部件,这可能会使其变得复杂。以下是与模型部署相关的一些挑战:
模型部署可能非常昂贵,基础设施和维护成本占用了大部分预算。企业必须做好准备,投资建设强大的基础设施和资源,以实现高效部署。
自动执行模型部署有助于降低复杂性,但团队仍必须了解机器学习的基础知识,并熟悉新技术的部署。弥合这一差距需要培训和技能提升。
将 AI 模型集成到当前的 IT 系统中可能是一项挑战。进行详细评估可以帮助企业确定是否需要任何 API、中间件或升级来实现模型与其他系统之间的无缝连接和通信。
使用面向 AI 构建器的新一代企业级开发平台 IBM watsonx.ai,可以训练、验证、调整和部署生成式 AI、基础模型和机器学习功能。使用一小部分数据,即可在很短的时间内构建 AI 应用程序。
借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。
通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。