신뢰할 수 있고 안전하며 비용 효율적인 IBM Cloud 인프라에서 생성형 AI, 기존 AI, HPC 및 시각화 사용 사례를 위한 NVIDIA GPU를 프로비저닝할 수 있습니다.
고객 서비스, 디지털 노동 및 애플리케이션 현대화와 같은 다양한 사용 사례를 위해 생성형 AI 모델을 학습시키고 검증, 조정 및 배포합니다.
AI 및 ML 알고리즘을 사용하여 특정 사용자 요구 사항과 비즈니스 요구 사항을 기반으로 예측하고 전망합니다.
GPU의 네트워킹 및 메모리 개선으로 금융, EDA 및 생명 과학 워크로드를 위한 컴퓨팅 집약적 애플리케이션의 속도를 높입니다.
GPU를 사용하여 엔지니어링 시뮬레이션, 제품 설계 워크스테이션, 게임, 3D 모델링, AR/VR을 지원합니다.
하이엔드 GPU 인프라에서 장기적으로 실행되는 작업
10~500개 이상의 하이엔드 GPU(작업당)
권장 GPU: H100, L40S
다운스트림 작업을 위해 사용자 지정 데이터 세트로 모델 조정
1개 이상의 중급 및 하이엔드 GPU(작업당)
권장 GPU: L40S
지연시간 및 처리량에 민감, 항상 비용에 민감
작업당 단일 GPU 또는 일부 GPU 사용
권장 GPU: L40S, L4
GPU
VCPU
RAM
대역폭
1 x NVIDIA L4 24GB
16
80GB
32Gbps
2 x NVIDIA L4 24GB
32
160GB
64Gbps
4 x NVIDIA L4 24GB
64
320GB
128Gbps
1 x NVIDIA L40S 48GB
24
120GB
48Gbps
2 x NVIDIA L40S 48GB
48
240GB
96Gbps
1 x NVIDIA Tesla V100 16GB
8
64GB
16Gbps
1 x NVIDIA Tesla V100 16GB
16
128GB
32Gbps
2 x NVIDIA Tesla V100 16GB
16
128GB
32Gbps
2 x NVIDIA Tesla V100 16GB
32
256GB
64Gbps
H100 GPU 출시 예정
Red Hat OpenShift의 GPU 옵션* |
---|
프로파일 이름
GPU
VCPU
RAM
대역폭
gx3.16x80.l4
1 x NVIDIA L4 24GB
16
80GB
32Gbps
gx3.32x160.2l4
2 x NVIDIA L4 24GB
32
160GB
32Gbps
gx3.64x320.4l4
4 x NVIDIA L4 24GB
64
320GB
32Gbps
Virtual Server for Classic의 GPU 옵션* |
---|
GPU
VCPU
RAM
1 x P100
8
60GB
2 x P100
16
120GB
Bare Metal Server for Classic의 GPU 옵션* |
---|
GPU
CPU
코어
RAM
NVIDIA T4
Intel Xeon 8474
96
최대 2048GB
NVIDIA T4
Intel Xeon 8474
48
최대 2048GB
NVIDIA T4
Intel Xeon 8474
64
최대 2048GB
고객 서비스, 디지털 노동 및 애플리케이션 현대화를 위해 즉시 사용 가능한 AI 어시스턴트로 생산성을 높입니다.
하나의 플랫폼을 기반으로 비즈니스 전반에 걸쳐 AI를 구축, 확장 및 관리합니다.
글로벌 데이터 플랫폼으로 데이터 장벽을 허물고 AI를 가속화합니다.
하이브리드 클라우드 플랫폼으로 어디서나 AI 모델을 배포합니다.
클라우드: IBM Cloud 기반 GPU, 온프레미스: IBM Storage Fusion.
미국, 캐나다 및 EU 데이터 센터에는 20TB 대역폭이 포함되며, 다른 모든 데이터 센터에는 5TB 대역폭이 포함됩니다. 새로운 가격 및 혜택은 현재 또는 향후의 다른 할인과 중복 적용되지 않을 수 있습니다.