Sfrutta le GPU NVIDIA per l'AI generativa, l'AI tradizionale, l'HPC e i casi d'uso di visualizzazione sull'infrastruttura IBM Cloud, affidabile, sicura ed economica.
Addestra, convalida, ottimizza e implementa modelli di gen AI di nuova generazione per una varietà di casi d'uso come il servizio clienti, il lavoro digitale e la modernizzazione delle applicazioni.
Utilizza algoritmi AI e ML per formulare previsioni ed effettuare proiezioni, in base alle esigenze specifiche degli utenti e ai requisiti aziendali.
Miglioramento dell'interconnessione e della memoria delle GPU per velocizzare le applicazioni ad alta intensità di calcolo per carichi di lavoro in ambito finanziario, EDA e Life Science.
Sfrutta le GPU per simulazioni in campo ingegneristico, workstation per la progettazione di prodotti, gaming, modellazione 3D, AR/VR.
Processi a esecuzione prolungata su un'infrastruttura GPU di fascia alta
10-500+ GPU di fascia alta (per processo)
GPU consigliati: H100, L40S
Ottimizzazione dei modelli con set di dati personalizzati per le attività downstream
GPU di fascia alta media 1+ (per processo)
GPU consigliate: L40S
Sensibilità alla latenza e al throughput, sempre sensibili ai costi
Frazione di GPU o GPU singola per task
GPU consigliate: L40S, L4
GPU
VCPU
RAM
Larghezza di banda
1 x NVIDIA L4 24 GB
16
80 GB
32 Gbps
2 x NVIDIA L4 24 GB
32
160 GB
64 Gbps
4 x NVIDIA L4 24 GB
64
320GB
128 Gbps
1 x NVIDIA L40S 48 GB
24
120 GB
48 Gbps
2 x NVIDIA L40S 48 GB
48
240GB
96 Gbps
1 x NVIDIA Tesla V100 da 16 GB
8
64 GB
16 Gbps
1 x NVIDIA Tesla V100 da 16 GB
16
128 GB
32 Gbps
2 x NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbps
2 x NVIDIA Tesla V100 16 GB
32
256 GB
64 Gbps
GPU H100 in arrivo
Opzioni GPU su Red Hat OpenShift* |
---|
Nome del profilo
GPU
VCPU
RAM
Larghezza di banda
gx3.16x80.l4
1 x NVIDIA L4 24 GB
16
80 GB
32 Gbps
gx3,32x160,2l4
2 x NVIDIA L4 24 GB
32
160 GB
32 Gbps
gx3,64x320,4l4
4 x NVIDIA L4 24 GB
64
320GB
32 Gbps
Opzioni GPU su Virtual Server for Classic* |
---|
GPU
VCPU
RAM
1 x P100
8
60 GB
2 x P100
16
120GB
Opzioni GPU su Bare Metal Server for Classic* |
---|
GPU
CPU
Core
RAM
NVIDIA T4
Intel Xeon 8474
96
Fino a 2048 GB
NVIDIA T4
Intel Xeon 8474
48
Fino a 2048 GB
NVIDIA T4
Intel Xeon 8474
64
Fino a 2048 GB
Sblocca la produttività con assistenti AI pronti all'uso creati per il servizio clienti, il lavoro digitale e la modernizzazione delle applicazioni.
Crea, espandi e gestisci l'AI in tutta la tua azienda, tutto su un'unica piattaforma.
Abbatti le barriere dei dati per accelerare l'AI con una piattaforma di dati globale.
Implementa modelli AI ovunque con una piattaforma cloud ibrida.
Cloud: GPU su IBM Cloud, on-premise: IBM Storage Fusion.
IBM e NASA collaborano al cambiamento climatico con i modelli di AI.
IBM watsonx ha aumentato le risoluzioni dei ticket dell'help desk del 40% al giorno.
Grazie alla collaborazione con IBM, Blendow Group ha ridotto del 70% il tempo necessario per il reperimento e l'analisi dei documenti legali.
Larghezza di banda di 20 TB inclusa nei centri dati di Stati Uniti, Canada e UE; larghezza di banda di 5 TB inclusa in tutti gli altri centri dati. I nuovi prezzi e le offerte non sono cumulabili con altri sconti, attuali o futuri.