IBM Z および LinuxONEのAI ツールキット
AI ツールキットを使用して、IBM Z および LinuxONE プラットフォームで人気のあるオープンソース AI プログラムの可能性を最大限に引き出します
IBM Z および IBM LinuxONE ワークフロー用の AI ツールキットを示すフラット・スタイルの図

AI ツールキット for IBM Z および LinuxONE は、IBM エリート・サポートを備えた人気のあるオープンソース AI フレームワークのファミリーであり、IBM Z® および LinuxONE ハードウェアに適合しています。

オープンソースソフトウェアはAIをよりアクセスしやすく、手頃な価格で革新的にしましたが、これらのフレームワークを正常に実装するには、適切なレベルのサポートが必要です。IBM ZおよびLinuxONE用のAIツールキットの導入により、実績のあるサポートオファリングを活用して、 z/OSおよびLinuxONEプラットフォームに人気のあるオープンソースAIフレームワークをデプロイを加速できます。

AI ツールキットは、IBM Elite Support と IBM Secure Engineering で構成されており、オープンソースの AI サービス・フレームワークと IBM 認定コンテナーを精査してスキャンし、セキュリティーの脆弱性がないか調べ、業種・業務規制への準拠を検証します。

IBM Z および LinuxONE 用の AI ツールキットは、2023 年第 4 四半期に一般提供される予定です。

メリット 自信を持ったデプロイ

IBM エリート・サポートが提供するプレミアム・サポートを活用して、オープンソースの AI および IBM 非保証ソフトウェアを正常にデプロイするために必要なときに、専門家のガイダンスを得ることができます。

パフォーマンスの向上

IBM Z Integrated Accelerator for AI を活用して、オープンソースおよび IBM 非保証 AI プログラムのパフォーマンスを大幅に向上させます。

AI フレームワークを活用する

ディープラーニング、従来の ML アプローチの両方を活用して、AI フレームワークを作成し、サービスを提供します。

コストと複雑さの低減

コストと複雑さを軽減しながら、軽量で無料でダウンロードできるツールとランタイムパッケージにより、市場投入までの時間を短縮します。

パフォーマンスメリット

IBM Z および LinuxONE 用の AI ツールキットを使用して、オープンソースを通じてイノベーションを実現します。

不正アクセス検知の高速化

デジタル通貨トランザクションは、IBM LinuxONE Emperor 4上のSnap MLとアプリケーションを併置することで、不正の推論を85%高速に実行します。1

生物医学画像のスループットを向上

IBM z16 シングルフレームでは、AI 用統合アクセラレーターを使用すると、IBM z16 シングルフレームのみを使用する場合と比較して、 Tensorflow 2.9.1 で生物医学画像データの推論のスループットが 6.8 倍向上します。2

生物医学画像の推論を強化

IBM z16 マルチフレームと LinuxONE Emperor 4 では、AI 用統合アクセラレーターを使用すると、比較した x86 システムと比較して、 Tensorflow サービングを使用した生物医学画像データの推論のスループットが 2.5 倍向上します。3

不正使用の応答時間を短縮

IBM z16 マルチフレームおよび LinuxONE Emperor 4 で Nvidia Triton の ONNX-MLIR バックエンドを使用すると、比較 X86 Serverで Nvidia Triton の ONNX ランタイムバックエンドを使用するのと比較して、応答時間が 7 倍短くなります。4

顧客トランザクション予測の迅速化

IBM z16 マルチフレームおよび LinuxONE Emperor 4 で Snap ML ライブラリを使用してアプリケーションを同じ場所に配置することで、比較対象の NVIDIA フォレスト推論ライブラリを使用してリモートで予測を実行する X86 Server、顧客トランザクションの予測を 3.5 倍高速に実行できます。5

主な機能 Tensorflow 互換性

TensorFlow と IBM Z Accelerated for TensorFlow のシームレスな統合を加速し、ニューラル・ネットワーク上で機械学習 (ML) モデルを開発およびデプロイします。

Tensorflow推論の高速化
AI フレームワークの統合

IBM Z Accelerated for NVIDIA Triton Inference Server を使用して、GPU または CPU ベースのインフラストラクチャ上の任意のフレームワークから ML または DL モデルをデプロイすることで、AI 推論を合理化および標準化します。

トリトン推論サーバー
TensorFlow Serving を使用した ML モデル

IBM Z Accelerated for Tensorflow Servingで柔軟で高性能なサービング・システムであるTensorflow・サービングのメリットを活用して、ML モデルを本番環境にデプロイできるようにします。

Tensorflow サービング
IBM zDLC を使用したモデルのコンパイル

IBM Z ディープラーニング Compiler (IBM zDLC) を使用して、ML モデルを z/OS または LinuxONE で実行できるコードに変換します。

IBM zDLC 詳細はこちら
Snap ML を実行

IBM Z Accelerated for Snap ML を使用して、一般的な ML モデルのトレーニングとスコアリングを最適化するオープンソース・ライブラリーである Snap ML を使用して ML モデルを構築およびデプロイします。

IBM Snap 機械学習
ユースケース 自然言語処理

AI のパワーと IBM Z および LinuxONE の拡張性およびセキュリティーを組み合わせることで、膨大な量のデータを処理および分析し、正確な分類と予測を提供します。オンチップアクセラレータによるAI推論は、リアルタイムのNLP成果の提供に役立ちます。

不正の検出と防止

AI と IBM® Telum プロセッサおよび統合アクセラレーターを使用して、大量のトランザクションを低遅延で監視し、クレジットカード詐欺などのあらゆる種類の不正行為により動的に適応し、リアルタイムで不正行為を阻止します。

ディープラーニング推論をエンタープライズ ワークロードに導入する (1:59)
マネーロンダリング防止(AML)

Scikit-learn または Snap ML を使用して ML モデルをトレーニングし、金融取引の大規模なデータセットを分析することでマネーロンダリングのパターンを特定します。AML アプリケーションに不可欠な IBM Z および LinuxONE の高性能、データ圧縮、および暗号化機能を活用します。

参考情報 不正使用のシナリオをリアルタイムで解決

スケーラブルで一貫性のある AI ソリューションを使用して、不正を検知、防止、取り組む方法をご覧ください。

マネーロンダリング防止の解決

AIアプリケーションを使用して、さまざまなマネーロンダリングパターンを特定するだけでなく、それらがリアルタイムで発生しないようにする方法はこちら。

画像と自然言語処理

妥協のないモデル精度と非常に低い遅延を実現し、高速な応答時間が重要なトランザクション処理およびデータ・サービス・アプリケーションに推論を統合する方法をご覧ください。

関連製品 IBM Machine Learning for z/OS

AI ツールキットが、リアルタイム・ビジネス・インサイト大規模に z/OS に AI モデルをデプロイするのにどのように役立つかについて説明します。

IBM Cloud Pak® for Data on IBM Z

AI ツールキットが、Z および LinuxONE 上の Linux® でモデルを作成して提供するための DIY ベースのアプローチをどのように提供するかをご覧ください。

IBM Z での AI を知る
詳細情報はこちら

IBM Z および LinuxONE 用の AI ツールキットを使用した AI への旅を始めましょう。個別コールをスケジュールして、開始するために必要な回答を取得します。

IBM Z と LinuxONE での AI への旅
その他の参考情報 資料 サポート パートナー 参考情報 コミュニティー 開発者コミュニティー 柔軟な料金体系 グローバル・ファイナンシング Redbooks
脚注

1 免責事項: パフォーマンスの成果は、IBM LinuxONE Emperor 4 では Snap ML v1.9.0 (テクニカルプレビュー) バックエンドで、比較 X86 Serverでは Scikit-learn v1.0.2 バックエンドを使用して Scikit-learn ランダムフォレストモデルを使用して推論を行う IBM 内部テストに基づいています。モデルは、次のパブリックデータセット https://www.kaggle.com/datasets/ellipticco/elliptic-data-set でトレーニングされました。BentoML v0.13.1 (https://github.com/bentoml/BentoML) は、両方のプラットフォームでモデル提供フレームワークとして使用されました。IBM LinuxONE Emperor 4 構成: 2 つの専任(人の場合)、専用(ものの場合) コア、256 GB のメモリを搭載した LPAR の Ubuntu 20.04x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ

2 免責事項: パフォーマンスの成果は、医療画像 Tensorflow( https://github.com/karolzak/keras-unet#usage-examples ) のセマンティックセグメンテーションを行う推論のために IBM-zdnn-plugin ( https://ibm.github.io/ibm-z-oss-hub/containers/index.html ) を使用して 2.9.1 を実行している IBM 内部テストに基づいています。テストは、シングルチップ上の5コアで2.9.1 Tensorflow を実行するのに対し、シングルチップ上の5コアで実行するのに対し、IBM-zdnn-pluginを介してAI用統合アクセラレータを使用して、一度に30個の画像を送信することによってローカルで実行されました。IBM Machine Type 3932 構成: 10 個の専任(人の場合)、専用(ものの場合) IFL、128 GB メモリー、Ubuntu 22.04 で構成された 1 つの LPAR。結果は異なることがあります。

3 免責事項:パフォーマンスの成果は、医療画像( https://github.com/karolzak/keras-unet#usage-examples )のセマンティックセグメンテーションを行う推論のためにIBM-zdnn-plugin( https://ibm.github.io/ibm-z-oss-hub/containers/index.html )で動作するTensorflow2.12.0を実行しているIBMの内部テストに基づいています。テストは、wrk ワークロード要因 (https://github.com/wg/wrk) を使用してリモートで実行されましたTensorflow2.12.0サービングに対して単一の画像を送信します。IBM Machine Type 3932 構成: 10 個の専任(人の場合)、専用(ものの場合) IFL、128 GB メモリー、Ubuntu 22.04 で構成された 1 つの LPAR。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ
結果は異なることがあります。

4 免責事項: パフォーマンスの成果は、ONNX-MLIR バックエンドで Nvidia Triton を使用して推論を行う IBM 内部テストに基づいています (https://github.com/IBM/onnxmlir-triton-backend)IBM Machine Type 3931 の場合と、比較 X86 Serverで Nvidia Triton の ONNX ランタイムバックエンドを使用する場合と比較した場合。CCFDモデルは合成データセットでトレーニングされました。モデルサービングフレームワークとしてNVIDIA Triton 23.05 (https://github.com/triton-inference-server/server)が両方のプラットフォームで使用され、gRPCベンチマークツールghz(https://github.com/bojand/ghz)を介して駆動されました。IBM Machine Type 3931 構成: 6 つの専任(人の場合)、専用(ものの場合) IFL、128 GB メモリーを備えた LPAR 内の Ubuntu 22.04。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ

5 免責事項:パフォーマンス成果は、IBMマシンタイプ3931でAI用統合アクセラレータを使用するSnap ML v1.12.0バックエンドでランダムフォレストモデルを使用して推論を行うIBM内部テストとNVIDIAフォレスト推論ライブラリ(https://github.com/triton-inference-server/fil_backend)に基づいています。比較 X86 Serverのバックエンドモデルは、次のパブリックデータセット https://www.kaggle.com/c/santander-customer-transaction-prediction およびNVIDIA Triton™ (https://github.com/triton-inference-server/server)でトレーニングされましたは、両方のプラットフォームでモデル提供フレームワークとして使用されました。ワークロードは、httpベンチマークツールHey(https://github.com/rakyll/hey)を介して駆動されました。IBM Machine Type 3931 構成: 6 つの専任(人の場合)、専用(ものの場合) IFL、128 GB メモリーを備えた LPAR 内の Ubuntu 22.04。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ