ホーム
コンピュートとサーバー
LinuxONE
統合AIアクセラレーターは、IBM® Telumプロセッサーの機能です。これはメモリー一貫性を備えたオンチップ処理ユニットで、他の汎用コアのようにファブリックに直接接続されています。コロケーションによってAIとデータ間のレイテンシーを最小限に抑えることで、AI推論のパフォーマンスを向上させます。
このWebセミナーでは、さまざまな業界におけるAIの新しいユースケースの実現をIBM LinuxONEがどのように支援できるかを説明します。
IBMは、IBM LinuxONE Ecosystemと連携して、ISVが今日のAI、サステナビリティー、サイバーセキュリティーの課題に対するソリューションを提供できるよう支援しています。
金融機関と医療機関向けにカスタマイズされた2つの革新的なソリューションである、リアルタイムの不正防止を実現するClari5 Enterprise Fraud Management on IBM LinuxONE 4 Expressと、高度なAIソリューションを大規模に実現するExponential AIのEnso Decision Intelligence Platform on LinuxONEの詳細をご覧ください。
Clari5 Enterprise Fraud Management Solution on IBM LinuxONE 4 Expressは、リアルタイムの不正防止のための堅牢な意思決定エンジンを金融機関に提供します。前例のないスピードと拡張性を実現しながら、トランザクションを監視し、検知し、影響を与え、コンプライアンスを確保し、生産性を向上させるように設計されています。
Exponential AIのEnso Decision Intelligence Platform on LinuxONEは、ほぼリアルタイムのAIソリューションの構築、トレーニング、オーケストレーション、管理を大規模に行うための最先端の機能を提供します。このプラットフォームは、Exponential AIが開発したインテリジェント・オートメーション・ソリューションを提供することで、主要な国内医療保険支払者が複雑なトランザクションで直面する課題に対処します。
TensorFlowは、モデル開発、トレーニング、推論のための包括的なツールセットを提供する、オープンソースの機械学習フレームワークです。豊富で堅牢なエコシステムを誇り、Linux上で実行するLinuxONE環境と互換性があります。
IBM SnapMLは、一般的な機械学習モデルの高速トレーニングと推論のために設計されたライブラリーです。IBM Integrated Accelerator for AIを活用して、ランダム・フォレスト、エクストラ・ツリー、勾配ブースティング・マシンの各モデルのパフォーマンスを強化します。AI Toolkit for IBM Z、LinuxONE、およびIBM CloudPak for Dataの一部として提供されています。
Triton Inference Serverは、Nvidiaによって開発されたオープンソースのモデル・サーバーで、CPUとGPUの両方のデバイス上でのモデル推論をサポートしています。s390x(Linux on Z)など、さまざまなプラットフォームやアーキテクチャーで広く使用されています。特に、Linux on Z上では、TritonはAIフレームワークを活用して、SIMDアーキテクチャーとIBM Integrated Accelerator for AIの両方を使用し、パフォーマンスを最適化できます。
IBM Z Deep Learning Compilerは、データ・サイエンティストが使い慣れたツールやフレームワークを使用してディープラーニング・モデルを開発できるようにする強力なツールです。これらのモデルは、ミッションクリティカルなデータが存在するLinux on IBM Z上にデプロイできます。このコンパイラーにより、既存のモデルによる新しいTelumプロセッサーのIntegrated Accelerator for AIを素早く簡単に利用できるようになります。
IBM z16上のIBM Telumプロセッサーは、IBM z15プロセッサーと比較して、ソケットあたりのパフォーマンスが40%以上向上します。
免責事項:結果は、IBM TelumプロセッサーとIBM z15プロセッサーが提供する総処理能力のエンジニアリング分析、およびhttps://www.ibm.com/support/pages/ibm-z-large-systems-performance-referenceで公開されているIBM Large System Performance Reference(LSPR)比に基づいたものです。一般使用向けにアクセス可能なプロセッサー・ソケットあたりのコア数は、システム構成によって異なる場合があります。総処理能力は、ワークロード、構成、ソフトウェア・レベルによって異なります。
2 オンチップAIアクセラレーションは、チップ上のすべてのコアで共有される最大5.8 TFLOPSの処理能力を追加するように設計されています。
免責事項:結果は、1つのオンチップAIエンジンで実行できる、16ビット精度の1秒あたりの浮動小数点演算(FLOPS)の理論上の最大数です。オンチップAIエンジンは、1チップにつき1つあります。
3 免責事項:パフォーマンス結果は、IBM LinuxONE Emperor 4 LPAR(Ubuntu 20.04(SMTモード)を基盤とする48コア、メモリー128GB)でIBMが実施した推論演算をローカルで実行する内部テストから推察されるものです。テストには、Integrated Accelerator for AIを使用する合成クレジット・カード不正アクセス検知モデル(https://github.com/IBM/ai-on-z-fraud-detection)が使用されました。ベンチマークは、各チップの最初のコアにそれぞれ固定された8つの並列スレッドで実行されました。コアチップ・トポロジーの特定には、lscpuコマンドが使用されました。バッチ・サイズ128の推論演算が使用されました。結果はさまざまです。