IBM Z および LinuxONEのAI ツールキット

AI ツールキットを使用して、IBM Z および LinuxONE プラットフォームで人気のあるオープンソース AI プログラムの可能性を最大限に引き出します
IBM Z および IBM LinuxONE ワークフロー用の AI ツールキットを示すフラット・スタイルの図

AI ツールキット for IBM Z および LinuxONE は、IBM エリート・サポートを備えた人気のあるオープンソース AI フレームワークのファミリーであり、IBM Z® および LinuxONE ハードウェアに適合しています。

オープンソースソフトウェアはAIをよりアクセスしやすく、手頃な価格で革新的にしましたが、これらのフレームワークを正常に実装するには、適切なレベルのサポートが必要です。IBM ZおよびLinuxONE用のAIツールキットの導入により、実績のあるサポートオファリングを活用して、 z/OSおよびLinuxONEプラットフォームに人気のあるオープンソースAIフレームワークをデプロイを加速できます。

AI ツールキットは、IBM Elite Support と IBM Secure Engineering で構成されており、オープンソースの AI サービス・フレームワークと IBM 認定コンテナーを精査してスキャンし、セキュリティーの脆弱性がないか調べ、業種・業務規制への準拠を検証します。

IBM Z および LinuxONE 用の AI ツールキットは、2023 年第 4 四半期に一般提供される予定です。

メリット
自信を持ったデプロイ

IBM エリート・サポートが提供するプレミアム・サポートを活用して、オープンソースの AI および IBM 非保証ソフトウェアを正常にデプロイするために必要なときに、専門家のガイダンスを得ることができます。

パフォーマンスの向上

IBM Z Integrated Accelerator for AI を活用して、オープンソースおよび IBM 非保証 AI プログラムのパフォーマンスを大幅に向上させます。

AI フレームワークを活用する

ディープラーニング、従来の ML アプローチの両方を活用して、AI フレームワークを作成し、サービスを提供します。

コストと複雑さの低減

コストと複雑さを軽減しながら、軽量で無料でダウンロードできるツールとランタイムパッケージにより、市場投入までの時間を短縮します。

パフォーマンスメリット

IBM Z および LinuxONE 用の AI ツールキットを使用して、オープンソースを通じてイノベーションを実現します。

不正アクセス検知の高速化

デジタル通貨トランザクションは、IBM LinuxONE Emperor 4上のSnap MLとアプリケーションを併置することで、不正の推論を85%高速に実行します。1

生物医学画像のスループットを向上

IBM z16 シングルフレームでは、AI 用統合アクセラレーターを使用すると、IBM z16 シングルフレームのみを使用する場合と比較して、 Tensorflow 2.9.1 で生物医学画像データの推論のスループットが 6.8 倍向上します。2

生物医学画像の推論を強化

IBM z16 マルチフレームと LinuxONE Emperor 4 では、AI 用統合アクセラレーターを使用すると、比較した x86 システムと比較して、 Tensorflow サービングを使用した生物医学画像データの推論のスループットが 2.5 倍向上します。3

不正使用の応答時間を短縮

IBM z16 マルチフレームおよび LinuxONE Emperor 4 で Nvidia Triton の ONNX-MLIR バックエンドを使用すると、比較 X86 Serverで Nvidia Triton の ONNX ランタイムバックエンドを使用するのと比較して、応答時間が 7 倍短くなります。4

顧客トランザクション予測の迅速化

IBM z16 マルチフレームおよび LinuxONE Emperor 4 で Snap ML ライブラリを使用してアプリケーションを同じ場所に配置することで、比較対象の NVIDIA フォレスト推論ライブラリを使用してリモートで予測を実行する X86 Server、顧客トランザクションの予測を 3.5 倍高速に実行できます。5

主な機能 Tensorflow 互換性

TensorFlow と IBM Z Accelerated for TensorFlow のシームレスな統合を加速し、ニューラル・ネットワーク上で機械学習 (ML) モデルを開発およびデプロイします。

Tensorflow推論の高速化
AI フレームワークの統合

IBM Z Accelerated for NVIDIA Triton Inference Server を使用して、GPU または CPU ベースのインフラストラクチャ上の任意のフレームワークから ML または DL モデルをデプロイすることで、AI 推論を合理化および標準化します。

トリトン推論サーバー
TensorFlow Serving を使用した ML モデル

IBM Z Accelerated for Tensorflow Servingで柔軟で高性能なサービング・システムであるTensorflow・サービングのメリットを活用して、ML モデルを本番環境にデプロイできるようにします。

Tensorflow サービング
IBM zDLC を使用したモデルのコンパイル

IBM Z ディープラーニング Compiler (IBM zDLC) を使用して、ML モデルを z/OS または LinuxONE で実行できるコードに変換します。

IBM zDLC 詳細はこちら
Snap ML を実行

IBM Z Accelerated for Snap ML を使用して、一般的な ML モデルのトレーニングとスコアリングを最適化するオープンソース・ライブラリーである Snap ML を使用して ML モデルを構築およびデプロイします。

IBM Snap 機械学習
ユースケース 自然言語処理

AI のパワーと IBM Z および LinuxONE の拡張性およびセキュリティーを組み合わせることで、膨大な量のデータを処理および分析し、正確な分類と予測を提供します。オンチップアクセラレータによるAI推論は、リアルタイムのNLP成果の提供に役立ちます。

不正の検出と防止

AI と IBM® Telum プロセッサおよび統合アクセラレーターを使用して、大量のトランザクションを低遅延で監視し、クレジットカード詐欺などのあらゆる種類の不正行為により動的に適応し、リアルタイムで不正行為を阻止します。

ディープラーニング推論をエンタープライズ ワークロードに導入する (1:59)
マネーロンダリング防止(AML)

Scikit-learn または Snap ML を使用して ML モデルをトレーニングし、金融取引の大規模なデータセットを分析することでマネーロンダリングのパターンを特定します。AML アプリケーションに不可欠な IBM Z および LinuxONE の高性能、データ圧縮、および暗号化機能を活用します。

詳細情報はこちら

IBM Z および LinuxONE 用の AI ツールキットを使用した AI への旅を始めましょう。個別コールをスケジュールして、開始するために必要な回答を取得します。

IBM Z と LinuxONE での AI への旅
その他の参考情報 資料 サポート パートナー 参考情報 コミュニティー 開発者コミュニティー 柔軟な料金体系 グローバル・ファイナンシング Redbooks
脚注

1 免責事項: パフォーマンスの成果は、IBM LinuxONE Emperor 4 では Snap ML v1.9.0 (テクニカルプレビュー) バックエンドで、比較 X86 Serverでは Scikit-learn v1.0.2 バックエンドを使用して Scikit-learn ランダムフォレストモデルを使用して推論を行う IBM 内部テストに基づいています。モデルは、次のパブリックデータセット https://www.kaggle.com/datasets/ellipticco/elliptic-data-set でトレーニングされました。BentoML v0.13.1 (https://github.com/bentoml/BentoML) は、両方のプラットフォームでモデル提供フレームワークとして使用されました。IBM LinuxONE Emperor 4 構成: 2 つの専任(人の場合)、専用(ものの場合) コア、256 GB のメモリを搭載した LPAR の Ubuntu 20.04x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ

2 免責事項: パフォーマンスの成果は、医療画像 Tensorflow( https://github.com/karolzak/keras-unet#usage-examples ) のセマンティックセグメンテーションを行う推論のために IBM-zdnn-plugin ( https://ibm.github.io/ibm-z-oss-hub/containers/index.html ) を使用して 2.9.1 を実行している IBM 内部テストに基づいています。テストは、シングルチップ上の5コアで2.9.1 Tensorflow を実行するのに対し、シングルチップ上の5コアで実行するのに対し、IBM-zdnn-pluginを介してAI用統合アクセラレータを使用して、一度に30個の画像を送信することによってローカルで実行されました。IBM Machine Type 3932 構成: 10 個の専任(人の場合)、専用(ものの場合) IFL、128 GB メモリー、Ubuntu 22.04 で構成された 1 つの LPAR。結果は異なることがあります。

3 免責事項:パフォーマンスの成果は、医療画像( https://github.com/karolzak/keras-unet#usage-examples )のセマンティックセグメンテーションを行う推論のためにIBM-zdnn-plugin( https://ibm.github.io/ibm-z-oss-hub/containers/index.html )で動作するTensorflow2.12.0を実行しているIBMの内部テストに基づいています。テストは、wrk ワークロード要因 (https://github.com/wg/wrk) を使用してリモートで実行されましたTensorflow2.12.0サービングに対して単一の画像を送信します。IBM Machine Type 3932 構成: 10 個の専任(人の場合)、専用(ものの場合) IFL、128 GB メモリー、Ubuntu 22.04 で構成された 1 つの LPAR。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ
結果は異なることがあります。

4 免責事項: パフォーマンスの成果は、ONNX-MLIR バックエンドで Nvidia Triton を使用して推論を行う IBM 内部テストに基づいています (https://github.com/IBM/onnxmlir-triton-backend)IBM Machine Type 3931 の場合と、比較 X86 Serverで Nvidia Triton の ONNX ランタイムバックエンドを使用する場合と比較した場合。CCFDモデルは合成データセットでトレーニングされました。モデルサービングフレームワークとしてNVIDIA Triton 23.05 (https://github.com/triton-inference-server/server)が両方のプラットフォームで使用され、gRPCベンチマークツールghz(https://github.com/bojand/ghz)を介して駆動されました。IBM Machine Type 3931 構成: 6 つの専任(人の場合)、専用(ものの場合) IFL、128 GB メモリーを備えた LPAR 内の Ubuntu 22.04。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ

5 免責事項:パフォーマンス成果は、IBMマシンタイプ3931でAI用統合アクセラレータを使用するSnap ML v1.12.0バックエンドでランダムフォレストモデルを使用して推論を行うIBM内部テストとNVIDIAフォレスト推論ライブラリ(https://github.com/triton-inference-server/fil_backend)に基づいています。比較 X86 Serverのバックエンドモデルは、次のパブリックデータセット https://www.kaggle.com/c/santander-customer-transaction-prediction およびNVIDIA Triton™ (https://github.com/triton-inference-server/server)でトレーニングされましたは、両方のプラットフォームでモデル提供フレームワークとして使用されました。ワークロードは、httpベンチマークツールHey(https://github.com/rakyll/hey)を介して駆動されました。IBM Machine Type 3931 構成: 6 つの専任(人の場合)、専用(ものの場合) IFL、128 GB メモリーを備えた LPAR 内の Ubuntu 22.04。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ