Machine Learning for IBM z/OS

利用 IBM z/OS 上的事务性 AI 大规模加速获取业务洞察分析

在笔记本电脑上工作的女性的插图

事务性 AI 平台

Machine Learning for IBM z/OS (MLz)是一个在 IBM z/OS 本地运行的事务性 AI 平台。它提供 Web 用户界面 (UI)、各种应用程序编程接口 (API) 和 Web 管理仪表板。仪表板配有一套功能强大、易于使用的工具,用于模型开发和部署、用户管理和系统管理。

利用 IBM z/OS 的机器学习来实现企业级 AI
高速 AI

与 IBM® z1 和 IBM® Telum II 结合使用,实现事务性 AI 能力。每秒可处理高达 282000 笔 z/OS CICS 信用卡交易,且响应时间仅为 4 毫秒,每笔交易都会使用深度学习模型执行交易中欺诈检测推理操作。1

大规模 AI 和机器学习

将应用程序与推理请求并置,以帮助最大程度减少网络延迟导致的延迟情况。与 x86 云服务器的平均 60 ms 的网络延迟相比,此选项可将响应时间缩短至二十分之一,并将吞吐量提高达 19 倍。2

值得信赖的 AI

使用可解释性等值得信赖的 AI 功能,同时实时监控模型是否存在漂移。在 z/OS 上开发和部署事务性 AI 模型,以自信地处理任务关键型事务和工作负载。

事务性 AI

轻松导入、部署和监控模型以通过每笔交易实现价值,并在保持运营服务级别协议 (SLA) 的同时推动企业实现新的成果。

功能

ML for IBM z/OS 的全新增强版提高了评分性能,提供新版本的 Spark 和 Python 机器学习运行时,并包括 GUI 引导的配置工具等。

 

  • 实时推理:通过原生 CICS 和 WOLA 接口,在事务处理中为 CICS、IMS 和 BATCH COBOL 应用程序提供实时评分,并提供 RESTful 接口
  • 各种引擎支持:SparkML、Python、PMML、IBM SnapML、Watson Core Time 系列
  • 模型生命周期管理:引导式用户界面、RESTful 服务
  • Telum II:ONNX 和 IBM SnapML 模型
  • 值得信赖的 AI:可解释性和漂移监控
深入了解企业版
在 JupyterHub 中构建协作模型
共享的 JupyterHub 环境允许多位数据科学家在 z/OS 平台上共同构建和培训模型,从而加强协作并提高工作效率。
改进 AI 监控和可解释性工具
增强对可解释性结果的监控和更清晰的可视化有助于确保模型在生产使用过程中保持开放性、可靠性和易于解读性。
利用 AI 加速器实现更快的多类别评分
MLz 通过 Snap ML 使用 IBM Z Systems 中的片上 AI 加速器,支持高性能多类分类评分,从而提高模型推理速度和效率。
IBM z/OS 上的全 ML 生命周期
MLz 通过 Web UI、API 以及与 Spark 和 Python 工具包的集成,为模型开发、部署和管理提供一个安全的企业级平台。

技术细节

Machine Learning for z/OS 使用 IBM 专有技术和开源技术并且需要必备的硬件和软件。

  •  
  • z17、z16 或 z15
  • z/OS 3.2、3.1 或 2.5
  • IBM 64-bit SDK for z/OS Java Technology Edition 版本 8、11 或 17
  • IBM WebSphere Application Server for z/OS Liberty 版本 22.0.0.9 或更高版本
  • 仅当选择 Db2 for z/OS 作为存储库元数据数据库时,才需要 Db2 13 for z/OS 或更高版本

相关产品

IBM Z Anomaly Analytics

通过检测日志和指标数据中的异常,识别运营问题,避免发生代价高昂的事件。

面向 IBM z/OS 的 Python AI 工具包

访问相关开源软件库,以支持当今的 AI 和 ML 工作负载。

IBM Db2 Analytics Accelerator for z/OS

凭借 IBM Z 的控制和安全功能,执行高速数据分析以获得实时洞察分析。

IBM Db2 AI for z/OS

了解 AI 如何帮助增强可用性、提高运营绩效并维护 IBM DB2 系统的运行状况。

采取后续步骤

了解 Machine learning for IBM z/OS 如何通过 IBM z/OS 上的事务性 AI 大规模加快业务洞察分析速度。

免费试用
更多探索方式 文档 支持 全生命周期服务和支持 社区
脚注

1 免责声明:性能结果基于 IBM 内部测试推算得出。测试环境配置了 6 个 CP 和 256 GB 内存的 IBM z17 LPAR,运行 z/OS 3.1。测试采用了 CICS OLTP 信用卡交易工作负载,该负载具有较低的成比例巢状烈度 (RNI) 测量指标,同时结合了基于综合信用卡欺诈检测模型的推理操作,该欺诈检测模型利用了集成式 AI 加速器,可在以下链接获取:https://github.com/IBM/ai-on-z-fraud-detection。基准测试使用 32 个线程并发执行推理操作。推理操作由 Machine Learning for IBM z/OS (v3.2.0) 执行,该软件托管在 Liberty 服务器 (v22.0.0.3) 上。此外,在 Machine Learning for z/OS 上启用了服务端批处理,批处理大小设置为 8 个推理操作。结果可能有所不同。

2 免责声明:性能结果基于 IBM 内部 CICS OLTP 信用卡工作负载,并在 IBM z16 上运行了交易中欺诈检测功能。测量是在有和没有 AI 集成加速器的情况下完成的。期间使用了配备 12 个 CP、24 个 zIIP 和 256 GB 内存的 z/OS V2R4 LPAR。推理操作是通过 WebSphere Application Server Liberty 21.0.0.12 上运行的 Machine Learning for z/OS 2.4 来完成的,并且使用了综合信用卡欺诈检测模型 (https://github.com/IBM/ai-on-z-fraud-detection)。服务器端的批处理功能已在规模为 8 个推理操作的 Machine Learning for z/OS 上启用。结果可能有所不同。