AI Toolkit for IBM® Z and LinuxONE 是一系列流行的开源 AI 框架,它们附带 IBM Elite Support 并适用于 IBM Z 和 LinuxONE 硬件。
虽然开源软件使 AI 更易于访问、更实惠且富于创新,但您需得到适当水平的支持才能成功实施这些框架。随着 AI Toolkit for IBM Z and LinuxONE 的推出,您可利用我们久经验证的支持产品在 z/OS® 和 LinuxONE 平台上部署和加速采用流行的开源 AI 框架。
此 AI 工具包由 IBM Elite Support 和 IBM Secure Engineering 组成,它们可用于审查和扫描开源 AI 服务框架以及经 IBM 认证的容器,从而检测安全漏洞并验证是否符合行业法规。
AI Toolkit for IBM Z and LinuxONE 预计于 2023 年第 4 季度正式发布。
利用 IBM Elite Support 提供的高级支持,在需要时获得专家指导,以成功部署开源 AI 和 IBM 无保修软件。
利用 IBM Z Integrated Accelerator for AI 大幅提升开源程序和 IBM 无保修 AI 程序的性能。
利用深度学习和传统 ML 方法来创建和支持 AI 框架。
借助可免费下载的轻量级工具和运行时软件包,降低成本和复杂性,同时缩短上市时间。
借助 AI Toolkit for IBM Z and LinuxONE 以通过开源方式实现创新。
通过在 IBM LinuxONE Emperor 4 上将您的应用程序与 Snap ML 进行共置,将数字货币交易的欺诈推理速度提高 85%。1
借助 IBM z16 单帧并搭配 Integrated Accelerator for AI 比单独使用 IBM z16 单帧时的生物医学影像数据推理(利用 Tensorflow 2.9.1)吞吐量高出 6.8 倍。2
借助 IBM z16 多帧和 LinuxONE Emperor 4 并搭配 Integrated Accelerator for AI 比使用 x86 系统时的生物医学影像数据推理(利用 Tensorflow)吞吐量高出 2.5 倍。3
与在 x86 服务器上使用适用于 Nvidia Triton 的 ONNX Runtime 后端相比,在 IBM z16 多帧和 LinuxONE Emperor 4 上使用适用于 Nvidia Triton 的 ONNX-MLIR 后端来运行信用卡欺诈检测可将响应时间缩短 7 倍。4
与在 x86 服务器上使用 NVIDIA Forest Inference Library 来远程运行预测相比,在 IBM z16 多帧和 LinuxONE Emperor 4 上将应用程序和 Snap ML 库进行共置,可将客户交易预测的运行速度提高 3.5 倍。5
加快 TensorFlow 与 IBM Z Accelerated for Tensorflow 的无缝集成,从而在神经网络上开发和部署机器学习 (ML) 模型。
通过使用 IBM Z Accelerated for NVIDIA Triton Inference Server,在基于 GPU 或 CPU 的基础架构上部署来自任意框架的 ML 或 DL 模型,从而简化和标准化 AI 推理。
利用 Tensorflow Serving(一种灵活、高性能的服务系统)的优势并借助 IBM Z Accelerated for Tensorflow Serving,在生产环境中帮助部署 ML 模型。
借助 IBM Z Deep Learning Compiler (IBM zDLC),将 ML 模型转换为可在 z/OS 或 LinuxONE 上执行的代码。
使用 IBM Z Accelerated for Snap ML 以通过 Snap ML 来构建和部署 ML 模型。Snap ML 是一种开源库,它可优化主流 ML 模型的训练和评分。
1免责声明:性能结果基于 IBM 内部测试,且这些测试在 IBM LinuxONE Emperor 4 上使用了 Scikit-learn Random Forest 模型和 Snap ML v1.9.0(技术预览版)后端进行推理,同时还在与之进行比较的 x86 服务器上使用 Scikit-learn v1.0.2 后端进行推理。训练该模型所用的公共数据集位于 https://www.kaggle.com/datasets/ellipticco/elliptic-data-set。BentoML v0.13.1 (https://github.com/bentoml/BentoML) 在这两个平台上被用作模型服务框架。IBM LinuxONE Emperor 4 配置:位于 LPAR 中的 Ubuntu 20.04,同时附带 2 个专用内核和 256 GB 内存。x86 服务器配置:采用 2.80 GHz 9 核 IceLake Intel® Xeon® Gold 6342 CPU 并开启超线程功能的 Ubuntu 20.04,同时附带 1 TB 内存。
2 免责声明:性能结果基于 IBM 内部测试,且这些测试运行了 Tensorflow 2.9.1 和 IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) 以实现针对医学影像语义分割的推理 (https://github.com/karolzak/keras-unet#usage-examples)。这些测试在本地运行,且具体比较方法为:一次发送 30 个影像并在单个芯片上的 5 个内核中运行 TensorFlow 2.9.1;以及在单个芯片上的 5 个内核中运行 TensorFlow 2.9.1,并通过 IBM-zdnn-plugin 使用 AI 集成加速器。IBM Machine Type 3932 配置:1 个 LPAR,其中配备 10 个专用 IFL、128 GB 内存和 Ubuntu 22.04。结果可能有所不同。
3 免责声明:性能结果基于 IBM 内部测试,且这些测试运行了 Tensorflow 2.12.0 和 IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) 以实现针对医学影像语义分割的推理 (https://github.com/karolzak/keras-unet#usage-examples)。这些测试通过 wrk 工作负载驱动程序 (https://github.com/wg/wrk) 远程运行,而该驱动程序可针对 TensorFlow 2.12.0 服务功能发送单个图像。IBM Machine Type 3931 配置:1 个 LPAR,其中配置 12 个专用 IFL、128 GB 内存和 Ubuntu 22.04。x86 服务器配置:采用 2.80 GHz 12 核 IceLake Intel® Xeon® Gold CPU 并开启超线程功能的 Ubuntu 22.04,同时附带 1 TB 内存。结果可能有所不同。
4 免责声明:性能结果基于 IBM 内部测试,且这些测试在 IBM Machine Type 3931 上使用了 Nvidia Triton 和 ONNX-MLIR 后端 (https://github.com/IBM/onnxmlir-triton-backend) 进行推理,同时还在与之进行比较的 x86 服务器上使用适用于 Nvidia Triton 的 ONNX Runtime 后端进行推理。CCFD 模型在合成数据集上进行训练。作为模型服务框架,NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) 在这两个平台上进行使用,并通过 gRPC 基准测试工具 ghz (https://github.com/bojand/ghz) 来驱动。IBM Machine Type 3931 配置:1 个 LPAR,其中配备 6 个专用 IFL、128 GB 内存和 Ubuntu 22.04。x86 服务器配置:采用 2 个 2.80 GHz 24 核 IceLake Intel® Xeon® Gold CPU 并开启超线程功能的 Ubuntu 22.04,同时附带 1 TB 内存。
5 免责声明:性能结果基于 IBM 内部测试,且这些测试在 IBM Machine Type 3931 上使用了 Random Forest 模型和 Snap ML v1.12.0 后端(使用 AI 集成加速器)进行推理,同时还在与之进行比较的 x86 服务器上使用 NVIDIA Forest Inference Library (https://github.com/triton-inference-server/fil_backend) 后端进行推理。训练该模型所用的公共数据集位于 https://www.kaggle.com/c/santander-customer-transaction-prediction,同时 NVIDIA Triton™ (https://github.com/triton-inference-server/server) 在这两个平台上被用作模型服务框架。相关工作负载通过 http 基准测试工具 Hey (https://github.com/rakyll/hey) 来驱动。IBM Machine Type 3931 配置:1 个 LPAR,其中配备 6 个专用 IFL、256 GB 内存和 Ubuntu 22.04。x86 服务器配置:采用 2.80 GHz 6 核 IceLake Intel® Xeon® Gold CPU 并开启超线程功能的 Ubuntu 22.04,同时附带 1 TB 内存。