IBM Cloud® dispone di un'ampia gamma di GPU NVIDIA come H200 e L40S per soddisfare al meglio le tue esigenze specifiche e i workload di AI, come formazione, inferenza o ottimizzazione. Le GPU supportano un'ampia gamma di applicazioni, funzionalità e framework di inferenza AI generativa, inclusi modelli linguistici di grandi dimensioni (LLM) e modelli multimodali (MMM). Inserisci rapidamente il tuo workload di AI nel prodotto in base ai tuoi obiettivi di posizionamento del workload con l'abilitazione multipiattaforma, tra cui IBM Cloud Virtual Server for VPC, IBM watsonx®, Red Hat® RHEL AI o OpenShift AI e architetture distribuibili.
Le GPU NVIDIA sono abbinate a processori Intel® Xeon® di quarta generazione su IBM Cloud Virtual Servers for VPC. L'adozione e la distribuzione sono possibili in diversi modi, in base ai requisiti dell'infrastruttura e del software.
Le GPU NVIDIA possono essere implementate tramite IBM Cloud Virtual Servers for VPC per istanze cloud. IBM Cloud VPC è progettato per offrire elevata resilienza e sicurezza all'interno di una rete SDN (Software-Defined Network) in cui i clienti possono creare cloud privati isolati, mantenendo al contempo i vantaggi fondamentali offerti dal cloud pubblico. Le istanze cloud NVIDIA GPU, che supportano anche le immagini Red Hat Enterprise Linux AI (RHEL AI), sono ideali per i clienti con stack software altamente specializzati o per chi necessita del totale controllo del server sottostante.
I clienti che necessitano del totale controllo dell'intero stack, dall'infrastruttura al workload, possono implementare IBM watsonx.ai® sul loro virtual server basato su GPU NVIDIA in IBM Cloud VPC. IBM watsonx.ai è uno studio di sviluppo AI completo, integrato e end-to-end, che offre un toolkit per sviluppatori AI e una gestione completa del ciclo di vita dell'AI per sviluppare servizi di AI e implementarli nelle applicazioni preferite.
I clienti che desiderano la libertà di scegliere i framework AI contribuendo anche a garantire una distribuzione rapida e sicura dei workload AI possono utilizzare le nostre architetture implementabili delle GPU NVIDIA su IBM Cloud.
L'AI Red Hat OpenShift è una piattaforma flessibile e scalabile di AI (AI) e apprendimento automatico (ML) che consente alle aziende di creare e fornire applicazioni abilitate all'AI su larga scala in ambienti hybrid cloud. Creata utilizzando tecnologie open source, AI OpenShift offre ai team funzionalità affidabili e coerenti dal punto di vista operativo per sperimentare, servire modelli e fornire app innovative.
Organizza in cluster le istanze GPU NVIDIA su una rete da 3,2 Tbps con supporto RoCE v2
| GPU | vCPU | RAM | Configura | ||
|---|---|---|---|---|---|
| GPU NVIDIA H200 - Per modelli AI tradizionali e generativi di grandi dimensioni | 8 X NVIDIA H200 141 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA H100 - Per modelli AI tradizionali e generativi di grandi dimensioni | 8 x NVIDIA H100 80 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA A100-PCIe - per modelli AI tradizionali e AI generativa | 1 x NVIDIA A100 80 GB 2 x NVIDIA A100 80 GB | 24 48 | 120GB 240GB | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA L40S - Per modelli di piccole e medie dimensioni | 1 x NVIDIA L40S 48 GB 2 NVIDIA L40S 48 GB | 24 48 | 120GB 240GB | Virtual Server for VPC Red Hat OpenShift | |
| NVIDIA L4 GPU: per piccoli modelli di AI che richiedono una memoria più piccola | 1 x NVIDIA L4 24 GB 2 x NVIDIA L4 24 GB 4 x NVIDIA L4 24 GB | 16 32 64 | 80 GB 160 GB 320GB | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA V100: per iniziare con un'impronta AI ridotta | 1 NVIDIA V100 16 GB | 8 | 64 GiB | Virtual Server for VPC Red Hat OpenShift |