オープンソースソフトウェアはAIをよりアクセスしやすく、手頃な価格で革新的にしましたが、これらのフレームワークを正常に実装するには、適切なレベルのサポートが必要です。IBM ZおよびLinuxONE用のAIツールキットの導入により、実績のあるサポートオファリングを活用して、 z/OSおよびLinuxONEプラットフォームに人気のあるオープンソースAIフレームワークをデプロイを加速できます。
AI ツールキットは、IBM Elite Support と IBM Secure Engineering で構成されており、オープンソースの AI サービス・フレームワークと IBM 認定コンテナーを精査してスキャンし、セキュリティーの脆弱性がないか調べ、業種・業務規制への準拠を検証します。
IBM Z および LinuxONE 用の AI ツールキットは、2023 年第 4 四半期に一般提供される予定です。
IBM エリート・サポートが提供するプレミアム・サポートを活用して、オープンソースの AI および IBM 非保証ソフトウェアを正常にデプロイするために必要なときに、専門家のガイダンスを得ることができます。
IBM Z Integrated Accelerator for AI を活用して、オープンソースおよび IBM 非保証 AI プログラムのパフォーマンスを大幅に向上させます。
ディープラーニング、従来の ML アプローチの両方を活用して、AI フレームワークを作成し、サービスを提供します。
コストと複雑さを軽減しながら、軽量で無料でダウンロードできるツールとランタイムパッケージにより、市場投入までの時間を短縮します。
IBM Z および LinuxONE 用の AI ツールキットを使用して、オープンソースを通じてイノベーションを実現します。
デジタル通貨トランザクションは、IBM LinuxONE Emperor 4上のSnap MLとアプリケーションを併置することで、不正の推論を85%高速に実行します。1
IBM z16 シングルフレームでは、AI 用統合アクセラレーターを使用すると、IBM z16 シングルフレームのみを使用する場合と比較して、 Tensorflow 2.9.1 で生物医学画像データの推論のスループットが 6.8 倍向上します。2
IBM z16 マルチフレームと LinuxONE Emperor 4 では、AI 用統合アクセラレーターを使用すると、比較した x86 システムと比較して、 Tensorflow サービングを使用した生物医学画像データの推論のスループットが 2.5 倍向上します。3
IBM z16 マルチフレームおよび LinuxONE Emperor 4 で Nvidia Triton の ONNX-MLIR バックエンドを使用すると、比較 X86 Serverで Nvidia Triton の ONNX ランタイムバックエンドを使用するのと比較して、応答時間が 7 倍短くなります。4
IBM z16 マルチフレームおよび LinuxONE Emperor 4 で Snap ML ライブラリを使用してアプリケーションを同じ場所に配置することで、比較対象の NVIDIA フォレスト推論ライブラリを使用してリモートで予測を実行する X86 Server、顧客トランザクションの予測を 3.5 倍高速に実行できます。5
TensorFlow と IBM Z Accelerated for TensorFlow のシームレスな統合を加速し、ニューラル・ネットワーク上で機械学習 (ML) モデルを開発およびデプロイします。
IBM Z Accelerated for NVIDIA Triton Inference Server を使用して、GPU または CPU ベースのインフラストラクチャ上の任意のフレームワークから ML または DL モデルをデプロイすることで、AI 推論を合理化および標準化します。
IBM Z Accelerated for Tensorflow Servingで柔軟で高性能なサービング・システムであるTensorflow・サービングのメリットを活用して、ML モデルを本番環境にデプロイできるようにします。
IBM Z ディープラーニング Compiler (IBM zDLC) を使用して、ML モデルを z/OS または LinuxONE で実行できるコードに変換します。
IBM Z Accelerated for Snap ML を使用して、一般的な ML モデルのトレーニングとスコアリングを最適化するオープンソース・ライブラリーである Snap ML を使用して ML モデルを構築およびデプロイします。
1 免責事項: パフォーマンスの成果は、IBM LinuxONE Emperor 4 では Snap ML v1.9.0 (テクニカルプレビュー) バックエンドで、比較 X86 Serverでは Scikit-learn v1.0.2 バックエンドを使用して Scikit-learn ランダムフォレストモデルを使用して推論を行う IBM 内部テストに基づいています。モデルは、次のパブリックデータセット https://www.kaggle.com/datasets/ellipticco/elliptic-data-set でトレーニングされました。BentoML v0.13.1 (https://github.com/bentoml/BentoML) は、両方のプラットフォームでモデル提供フレームワークとして使用されました。IBM LinuxONE Emperor 4 構成: 2 つの専任(人の場合)、専用(ものの場合) コア、256 GB のメモリを搭載した LPAR の Ubuntu 20.04x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ
2 免責事項: パフォーマンスの成果は、医療画像 Tensorflow( https://github.com/karolzak/keras-unet#usage-examples ) のセマンティックセグメンテーションを行う推論のために IBM-zdnn-plugin ( https://ibm.github.io/ibm-z-oss-hub/containers/index.html ) を使用して 2.9.1 を実行している IBM 内部テストに基づいています。テストは、シングルチップ上の5コアで2.9.1 Tensorflow を実行するのに対し、シングルチップ上の5コアで実行するのに対し、IBM-zdnn-pluginを介してAI用統合アクセラレータを使用して、一度に30個の画像を送信することによってローカルで実行されました。IBM Machine Type 3932 構成: 10 個の専任(人の場合)、専用(ものの場合) IFL、128 GB メモリー、Ubuntu 22.04 で構成された 1 つの LPAR。結果は異なることがあります。
3 免責事項:パフォーマンスの成果は、医療画像( https://github.com/karolzak/keras-unet#usage-examples )のセマンティックセグメンテーションを行う推論のためにIBM-zdnn-plugin( https://ibm.github.io/ibm-z-oss-hub/containers/index.html )で動作するTensorflow2.12.0を実行しているIBMの内部テストに基づいています。テストは、wrk ワークロード要因 (https://github.com/wg/wrk) を使用してリモートで実行されましたTensorflow2.12.0サービングに対して単一の画像を送信します。IBM Machine Type 3932 構成: 10 個の専任(人の場合)、専用(ものの場合) IFL、128 GB メモリー、Ubuntu 22.04 で構成された 1 つの LPAR。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ
結果は異なることがあります。
4 免責事項: パフォーマンスの成果は、ONNX-MLIR バックエンドで Nvidia Triton を使用して推論を行う IBM 内部テストに基づいています (https://github.com/IBM/onnxmlir-triton-backend)IBM Machine Type 3931 の場合と、比較 X86 Serverで Nvidia Triton の ONNX ランタイムバックエンドを使用する場合と比較した場合。CCFDモデルは合成データセットでトレーニングされました。モデルサービングフレームワークとしてNVIDIA Triton 23.05 (https://github.com/triton-inference-server/server)が両方のプラットフォームで使用され、gRPCベンチマークツールghz(https://github.com/bojand/ghz)を介して駆動されました。IBM Machine Type 3931 構成: 6 つの専任(人の場合)、専用(ものの場合) IFL、128 GB メモリーを備えた LPAR 内の Ubuntu 22.04。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ
5 免責事項:パフォーマンス成果は、IBMマシンタイプ3931でAI用統合アクセラレータを使用するSnap ML v1.12.0バックエンドでランダムフォレストモデルを使用して推論を行うIBM内部テストとNVIDIAフォレスト推論ライブラリ(https://github.com/triton-inference-server/fil_backend)に基づいています。比較 X86 Serverのバックエンドモデルは、次のパブリックデータセット https://www.kaggle.com/c/santander-customer-transaction-prediction およびNVIDIA Triton™ (https://github.com/triton-inference-server/server)でトレーニングされましたは、両方のプラットフォームでモデル提供フレームワークとして使用されました。ワークロードは、httpベンチマークツールHey(https://github.com/rakyll/hey)を介して駆動されました。IBM Machine Type 3931 構成: 6 つの専任(人の場合)、専用(ものの場合) IFL、128 GB メモリーを備えた LPAR 内の Ubuntu 22.04。x86構成:ハイパースレッディングをオンにしたUbuntu 20.04 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz、1 TBメモリ