カスタマー・サービス、デジタルレイバー、アプリケーション・モダナイゼーションなど、さまざまなユースケースに合わせて生成AIモデルをトレーニング、検証、チューニング、デプロイします。
AIやMLアルゴリズムを使用して、特定のユーザーのニーズやビジネス要件に基づいた予測と予報を行います。
GPUのネットワーキングとメモリーの改善により、財務やEDA、ライフサイエンスのワークロードで計算集約型アプリケーションを高速化します。
GPUを使用して、エンジニアリング・シミュレーション、製品設計ワークステーション、ゲーム、3Dモデリング、AR/VRをサポートします。
ハイエンドGPUインフラストラクチャーで長時間実行されるジョブ
10~500以上のハイエンドGPU(ジョブあたり)
推奨GPU:H100、L40S
下流タスク用のカスタム・データ・セットを使用したモデル・チューニング
1つ以上のミドルエンド~ハイエンドGPU(ジョブごと)
推奨GPU:L40S
レイテンシーとスループットに対する高い感度、常にコストセンシティブ
タスクあたり1つまたは一部のGPU
推奨GPU:L40S、L4
GPU
VCPUs
RAM
帯域幅
1 x NVIDIA L4 24 GB
16
80 GB
32 Gbps
2 x NVIDIA L4 24 GB
32
160 GB
64 Gbps
4 x NVIDIA L4 24 GB
64
320 GB
128 Gbps
1 x NVIDIA L40S 48 GB
24
120 GB
48 Gbps
2 x NVIDIA L40S 48 GB
48
240 GB
96 Gbps
1 x NVIDIA Tesla V100 16 GB
8
64 GB
16 Gbps
1 x NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbps
2 x NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbps
2 x NVIDIA Tesla V100 16 GB
32
256 GB
64 Gbps
H100 GPUは近日公開
Red Hat OpenShift上のGPUのオプション* |
---|
プロファイル名
GPU
VCPUs
RAM
帯域幅
gx3.16x80.l4
1 x NVIDIA L4 24 GB
16
80 GB
32 Gbps
gx3.32x160.2l4
2 x NVIDIA L4 24 GB
32
160 GB
32 Gbps
gx3.64x320.4l4
4 x NVIDIA L4 24 GB
64
320 GB
32 Gbps
Virtual Server for Classic上のGPUオプション* |
---|
GPU
VCPUs
RAM
1 x P100
8
60 GB
2 x P100
16
120 GB
Bare Metal Server for Classic上のGPUオプション* |
---|
GPU
CPU
コア
RAM
NVIDIA T4
Intel Xeon 8474
96
最大2048 GB
NVIDIA T4
Intel Xeon 8474
48
最大2048 GB
NVIDIA T4
Intel Xeon 8474
64
最大2048 GB
カスタマー・サービスやデジタルレイバー、アプリケーション・モダナイゼーションのための、すぐに使えるAIアシスタントで生産性を高めましょう。
ビジネス全体にわたるAIの構築、拡張、管理をすべて1つのプラットフォーム上で行います。
グローバル・データ・プラットフォームでデータの障壁を打ち破り、AIを加速します。
ハイブリッドクラウド・プラットフォームでAIモデルをどこにでも展開します。
クラウド:IBM Cloud上のGPU、オンプレミス:IBM Storage Fusion。
*米国、カナダ、EUのデータセンターには20 TBの帯域幅が含まれます。他のすべてのデータセンターには5 TBの帯域幅が含まれます。新しい料金と特典を他の(現在または将来の)割引と組み合わせることはできません。