IBM Cloud dispose d’une large gamme de GPU NVIDIA, dont les H200 et L40S, pour s’adapter au mieux à vos besoins spécifiques et à vos workloads d’IA, tels que l’entraînement, l’inférence ou l’optimisation. Les GPU prennent en charge un large éventail d’applications, de capacités et de frameworks d’inférence d’IA générative, y compris les grands modèles de langage (LLM) et les modèles multimodaux (MMM). Intégrez rapidement votre workload d’IA au produit en fonction de vos objectifs de placement de workload avec une activation multiplateforme, notamment IBM Cloud Virtual Servers for VPC, IBM watsonx, Red Hat RHEL AI ou OpenShift AI et les architectures déployables.
Les GPU NVIDIA sont associés aux processeurs Intel Xeon de 4e génération sur IBM Cloud Virtual Servers for VPC. Il existe plusieurs méthodes d’adoption et de déploiement en fonction de votre infrastructure et de vos exigences logicielles.
Les GPU NVIDIA peuvent être déployés via des instances cloud d’IBM Cloud Virtual Servers for VPC. IBM Cloud VPC est conçu pour offrir une résilience et une sécurité élevées au sein d’un réseau défini par logiciel (SDN), où les clients peuvent créer des clouds privés isolés tout en conservant les avantages essentiels du cloud public. Les instances cloud de GPU NVIDIA, qui prennent également en charge les images Red Hat Enterprise Linux AI (RHEL AI), sont idéales pour les clients disposant d’une pile logicielle hautement spécialisée, ou pour ceux qui ont besoin d’un contrôle total sur leur serveur sous-jacent.
Les clients ayant besoin d’un contrôle total sur l’ensemble de leur pile d’IA, de l’infrastructure au workload, peuvent déployer IBM watsonx.ai sur leur serveur virtuel basé sur GPU NVIDIA sur IBM Cloud VPC. IBM watsonx.ai est un studio unique de développement d’IA intégré de bout en bout qui propose des outils de développement et une gestion complète du cycle de vie de l’IA pour développer des services d’IA et les déployer dans les applications de votre choix.
Les clients qui souhaitent pouvoir choisir librement des frameworks d’IA tout en garantissant un déploiement rapide et sécurisé de leurs workloads d’IA peuvent utiliser nos architectures déployables pour les GPU NVIDIA sur IBM Cloud.
Red Hat OpenShift AI est une plateforme d’intelligence artificielle (IA) et de machine learning (ML) flexible et évolutive qui permet aux entreprises de créer et de fournir des applications compatibles avec l’IA à grande échelle dans des environnements de cloud hybride. Conçu à l’aide de technologies open source, OpenShift AI fournit aux équipes des capacités fiables et opérationnellement cohérentes pour expérimenter, diffuser des modèles et fournir des applications innovantes.
Partitionnez vos instances de GPU NVIDIA sur un réseau de 3,2 To/s avec la prise en charge de RoCE v2
| Processeur graphique (GPU) | vCPU | RAM | Configuration | ||
|---|---|---|---|---|---|
| GPU NVIDIA H200 - Pour les grands modèles d'IA traditionnels et d'IA générative | 8 NVIDIA H200 de 141 Go | 160 | 1792 Gio | Virtual Server for VPC Red Hat OpenShift | |
| Processeur graphique NVIDIA H100 - Pour les grands modèles d’IA traditionnels et d’IA générative | 8 x NVIDIA H100 80 Go | 160 | 1792 Gio | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA A100-PCIe - pour l'IA traditionnelle et les modèles d'IA générative | 1 x NVIDIA A100 80 GB 2 x NVIDIA A100 80 Go | 24 48 | 120 Go 240 Go | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA L40S - Pour les modèles petits et moyens | 1 x NVIDIA L40S 48 Go 2 x NVIDIA L40S 48 Go | 24 48 | 120 Go 240 Go | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA L4 - Pour les petits modèles d’IA qui nécessitent moins de mémoire | 1 x NVIDIA L4 24 Go 2 x NVIDIA L4 24 Go 4 x NVIDIA L4 24 Go | 16 32 64 | 80 Go 160 Go 320 Go | Virtual Server for VPC Red Hat OpenShift | |
| GPU NVIDIA V100 - Pour une faible empreinte IA en démarrage | 1 X NVIDIA V100 16 Go | 8 | 64 GiB | Virtual Server for VPC Red Hat OpenShift |