IBM® Cloudでは、H200やL40Sなど幅広い種類のNVIDIA GPUを取りそろえており、トレーニング、推論、ファイン・チューニングなど、特定のニーズやAIワークロードに最適な選択が可能です。これらのGPUは、大規模言語モデル(LLM)やマルチ・モーダル・モデル(MMM)など、幅広い生成AI推論アプリケーション、機能、フレームワークをサポートします。IBM Cloud Virtual Servers for VPC、IBM® watsonx、Red Hat® RHEL AI、OpenShift® AI、デプロイ可能なアーキテクチャーなど、複数のプラットフォームに対応しており、ワークロードの配置目標に応じて、AIワークロードを迅速に製品に導入できます。
IBM Cloud Virtual Servers for VPCでは、NVIDIA GPUが第4世代 Intel® Xeon®プロセッサーと組み合わせて提供されます。お客様のインフラストラクチャーやソフトウェアの要件に応じて、採用と導入の方法を複数から選択できます。
NVIDIA GPUは、IBM Cloud Virtual Server for VPCのクラウド・インスタンスを通じて導入できます。IBM Cloud VPCは、ソフトウェア定義ネットワーク(SDN)内で高いレジリエンスとセキュリティーを備えるよう設計されており、クライアントはパブリッククラウドのメリットを維持しながら、分離されたプライベートクラウドを構築できます。Red Hat Enterprise Linux AI(RHEL AI)イメージにも対応するNVIDIA GPUクラウドインスタンスは、特化したソフトウェア・スタックを必要とするクライアントや、基盤となるサーバーを完全に制御したいクライアントに最適です。
インフラストラクチャーからワークロードに至るまで、AIスタック全体を完全に制御したいお客様は、IBM Cloud VPC上のNVIDIA GPUベースの仮想サーバーにIBM® watsonx.aiをデプロイできます。IBM watsonx.aiは、AI開発者向けツールキットとAIライフサイクル全体の管理機能を備えた、ワンストップで統合されたエンドツーエンドのAI開発スタジオで、任意のアプリケーションへのAIサービスの実装を可能にします。
AIワークロードの迅速で安全なデプロイメントを支援すると同時に、AIフレームワークを自由に選択したいお客様は、IBM Cloud上でNVIDIA GPUのデプロイ可能なアーキテクチャーを使用することができます。
Red Hat OpenShift AIは、企業がハイブリッドクラウド環境全体でAI対応アプリケーションを大規模に作成および提供できるようにする、柔軟でスケーラブルな人工知能(AI)および機械学習(ML)プラットフォームです。オープンソース・テクノロジーを使用して構築されたOpenShift AIは、チームが実験、モデルの提供、革新的なアプリの提供を行うための信頼できる運用上の一貫性のある機能を提供します。
RoCE v2をサポートする3.2 Tbpsネットワーク上でNVIDIA GPUインスタンスをクラスター化します
| GPU | VCPU | RAM | 環境設定 | ||
|---|---|---|---|---|---|
| NVIDIA H200 GPU - 大規模な従来型AIモデルおよび生成AIモデル向け | NVIDIA H200 141 GB×8ユニット | 160 | 1792 GiB | Virtual Servers for VPC Red Hat OpenShift | |
| NVIDIA H100 GPU - 大規模な従来型AIモデルおよび生成AIモデル向け | 8 x NVIDIA H100 80 GB | 160 | 1792 GiB | Virtual Servers for VPC Red Hat OpenShift | |
| NVIDIA A100-PCIe GPU - 従来型AIモデルおよび生成AIモデル向け | NVIDIA H100 80 GBx1ユニット NVIDIA H100 80 GBx2ユニット | 24 48 | 120 GB 240 GB | Virtual Servers for VPC Red Hat OpenShift | |
| NVIDIA L40S GPU - 小規模から中規模のモデル向け | 1 x NVIDIA L40S 48 GB NVIDIA L40S 48 GB×2ユニット | 24 48 | 120 GB 240 GB | Virtual Servers for VPC Red Hat OpenShift | |
| NVIDIA L4 GPU - より少ないメモリーを必要とする小規模なAIモデル向け | 1 x NVIDIA L4 24 GB 2 x NVIDIA L4 24 GB 4 x NVIDIA L4 24 GB | 16 32 64 | 80 GB 160 GB 320 GB | Virtual Servers for VPC Red Hat OpenShift | |
| NVIDIA V100 GPU -初期段階の小規模なAIプロジェクト向け | 1 X NVIDIA V100 16 GB | 8 | 64 GiB | Virtual Servers for VPC Red Hat OpenShift |