随着计算、算法和数据访问的进步,企业正在更广泛地采用深度学习,通过语音识别、自然语言处理和图像分类来提取和扩展洞察力。深度学习可以大规模解释文本、图像、音频和视频,生成推荐引擎、情绪分析、金融风险建模和异常检测的模式。
由于训练网络的层数和数据量很大,因此,处理神经网络需要很高的计算能力。此外,企业正在努力展示孤立实施的深度学习实验的结果。IBM Machine Learning Accelerator 是 IBM Cloud Pak® for Data 上 IBM Watson Studio 中的一项深度学习功能,可帮助企业:
- 在任何云端动态扩展计算、人员和应用程序。
- 以透明和可视的方式管理和统一大型数据集和模型。
- 利用从边缘云到混合云的实时数据,不断调整模型。
- 通过更快的训练和推理,优化云计算和人工智能投资。
更快地构建从初始原型到整个企业范围的模型。加快以高精度训练和部署深度学习工作负载的时间。
利用具有集成数据和 AI 服务的信息架构。在容器化混合云基础上为应用程序推送深度学习模型。
可在任意位置统一数据和模型部署。共享和优化 GPU 和 CPU 分配,根据工作负载需求进行调整。
加快大型高分辨率图像的处理速度。通过自动缩放增加吞吐量、缩短延迟并提高可用性。
通过多租户促进跨业务部门和企业使用。通过弹性、分布式训练和推理,最大限度地利用 GPU 资源。
提高从数据准备到模型部署的透明度和可视性。还可以减少合规、法律、安全性和声誉风险。
使用共享计算资源池随时随地启动数据科学项目。减少训练时间并生成更高质量的模型。横向扩展、企业级训练和推理服务,提供批处理、流式传输和交互式部署的 API 支持。
将深度学习部署为数据和 AI 服务的一部分,并支持流行框架。在统一的受管控环境中聚合开源和第三方工具。
在 Red Hat® OpenShift® 中本地运行机器学习和深度学习模型。在防火墙内部署容器化模型,同时将数据保留在本地并保持云可移植性。
在 GPU 占用空间之外,增加深度学习模型的可用内存量。使用更大、更高分辨率的图像实现更复杂的模型。
分配和共享根据多租户架构中的建模需求进行调整的计算能力。在租户之间安全共享计算资源,最大限度地提高使用率。
根据策略启用资源的动态扩展(向上或向下),以确保更高优先级的作业快速运行。构建实时训练可视化和运行时模型监控。自动进行超参数搜索和优化,加快开发速度。
准备、构建、运行和管理机器学习和深度学习模型。使用更多数据进行循环训练,不断改进模型。
通过预编译和验证的机器学习和深度学习模型,提高模型部署的可靠性和弹性。使用针对目标系统优化运行的软件来提高性能。
管理和监控从小型到企业级部署的深度学习模型。监控模型的公平性和可解释性,同时降低模型漂移和风险。
获取 Machine Learning Accelerator 的概述。