针对客户服务、数字劳动力和应用程序现代化等各种用例,训练、验证、调整和部署生成式 AI 模型。
根据特定的用户需求和业务要求,使用 AI 和 ML 算法进行预测。
改进 GPU 的网络和内存,以加速金融、EDA 和生命科学工作负载的计算密集型应用。
使用 GPU 来支持工程仿真、产品设计工作站、游戏、3D 建模、AR/VR。
高端 GPU 基础架构上的长时间运行作业
10 到 500 个以上的高端 GPU(每个作业)
推荐 GPU:H100、L40S
使用针对下游任务的自定义数据集对模型进行调整
1 个以上的中高端 GPU(每个作业)
推荐的 GPU:L40S
对延迟和吞吐量敏感,且始终对成本敏感
每个任务均使用单个或部分 GPU
推荐 GPU:L40S、L4
GPU
VCPU
RAM
带宽
1 个 NVIDIA L4 24 GB
16
80 GB
32 Gbps
2 个 NVIDIA L4 24 GB
32
160 GB
64 Gbps
4 个 NVIDIA L4 24 GB
64
320 GB
128 Gbps
1 个 NVIDIA L40S 48 GB
24
120 GB
48 Gbps
2 个 NVIDIA L40S 48 GB
48
240 GB
96 Gbps
1 个 NVIDIA Tesla V100 16 GB
8
64 GB
16 Gbps
1 个 NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbps
2 个 NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbps
2 个 NVIDIA Tesla V100 16 GB
32
256 GB
64 Gbps
H100 GPU 即将推出
针对 Red Hat OpenShift 的 GPU 选项* |
---|
配置文件名称
GPU
VCPU
RAM
带宽
gx3.16x80.l4
1 个 NVIDIA L4 24 GB
16
80 GB
32 Gbps
gx3.32x160.2l4
2 个 NVIDIA L4 24 GB
32
160 GB
32 Gbps
gx3.64x320.4l4
4 个 NVIDIA L4 24 GB
64
320 GB
32 Gbps
针对 Virtual Server for Classic 的 GPU 选项* |
---|
GPU
VCPU
RAM
1 个 P100
8
60 GB
2 个 P100
16
120 GB
针对 Bare Metal Server for Classic 的 GPU 选项* |
---|
GPU
CPU
核心数
RAM
NVIDIA T4
Intel Xeon 8474
96
最高 2,048 GB
NVIDIA T4
Intel Xeon 8474
48
最高 2,048 GB
NVIDIA T4
Intel Xeon 8474
64
最高 2,048 GB
借助开盒即可用的 AI 助手,提升客户服务、数字劳动力和应用程序现代化的工作效率。
在整个企业中构建、扩展和治理 AI—全部在一个平台上完成。
借助全球数据平台,突破数据障碍并加快 AI 应用。
通过混合云平台在任意位置部署 AI 模型。
云端:IBM Cloud 上的 GPU,本地:IBM Storage Fusion。
美国、加拿大和欧盟的数据中心包含 20 TB 带宽;所有其他数据中心包含 5 TB 带宽。新的价格和优惠可能无法与任何其他的当前或未来折扣一同享用。