IBM Cloud verfügt über eine große Auswahl an NVIDIA GPUs, z. B. H200 und L40S, die Ihren spezifischen Anforderungen und KI-Workloads wie Training, Inferenz oder Feinabstimmung am besten entsprechen. Die GPUs unterstützen eine Vielzahl von generativen KI-Inferencing-Anwendungen, Funktionen und Frameworks, einschließlich Large Language Models (LLM) und multimodalen Modellen (MMM). Bringen Sie Ihre KI-Workload schnell in das Produkt, basierend auf Ihren Workload-Platzierungszielen, mit plattformübergreifender Unterstützung, einschließlich IBM Cloud Virtual Server for VPC, IBM® watsonx, Red Hat RHEL AI oder OpenShift AI und Deployable Architectures.
NVIDIA-GPUs sind mit Intel Xeon Prozessoren der 4. Generation auf IBM Cloud Virtual Servers for VPC gepaart. Es gibt mehrere Möglichkeiten zur Einführung und Bereitstellung basierend auf Ihren Infrastruktur- und Softwareanforderungen.
NVIDIA-GPUs können über IBM Cloud Virtual Server for VPC für VPC-Cloud bereitgestellt werden. IBM Cloud VPC ist für hohe Resilienz und Sicherheit in einem softwaredefinierten Netzwerk (SDN) konzipiert, in dem Kunden isolierte Private Clouds erstellen können, ohne auf die wesentlichen Vorteile einer Public Cloud verzichten zu müssen. NVIDIA GPU Cloud-Instanzen, die auch Red Hat Enterprise Linux AI (RHEL AI)-Images unterstützen, sind ideal für Kunden mit hochspezialisierten Software-Stacks oder für solche, die die volle Kontrolle über ihren zugrunde liegenden Server benötigen.
Kunden, die die volle Kontrolle über ihren gesamten AI-Stack benötigen, von der Infrastruktur bis zum Workload, können IBM watsonx.ai auf ihrem NVIDIA GPU-basierten Virtual Server in IBM Cloud VPC bereitstellen. IBM® watsonx.ai ist ein integriertes End-to-End KI-Entwicklungsstudio, das ein KI-Entwickler-Toolkit und ein vollständiges KI-Lebenszyklusmanagement für die Entwicklung von KI-Services und deren Bereitstellung in den Anwendungen Ihrer Wahl bietet.
Kunden, die Freiheit bei der Auswahl von KI-Frameworks wünschen und gleichzeitig eine schnelle und sichere Bereitstellung ihrer KI-Workloads gewährleisten möchten, können unsere einsatzfähigen Architekturen mit NVIDIA-GPUs in der IBM Cloud nutzen.
Red Hat OpenShift AI ist eine flexible, skalierbare künstliche Intelligenz (KI) und Plattform für maschinelles Lernen (ML), die es Unternehmen ermöglicht, KI-fähige Anwendungen in großem Maßstab in Hybrid Cloud-Umgebungen zu erstellen und bereitzustellen. OpenShift AI wurde mithilfe von Open-Source-Technologien entwickelt und bietet vertrauenswürdige, betrieblich konsistente Funktionen, mit denen Teams experimentieren, Modelle entwickeln und innovative Apps bereitstellen können.
Clustern Sie Ihre NVIDIA-GPU-Instances über ein 3,2-Tbit/s-Netzwerk mit RoCE v2-Unterstützung
| GPU | VCPU | RAM | Konfigurieren | ||
|---|---|---|---|---|---|
| NVIDIA H200 GPU – Für große traditionelle KI- und generative KI-Modelle | 8 X NVIDIA H200 141 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
| NVIDIA H100 GPU – Für große traditionelle KI- und generative KI-Modelle | 8 X NVIDIA H100 80 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
| NVIDIA A100-PCIe GPU – für traditionelle KI- und generative KI-Modelle | 1 x NVIDIA A100 80 GB 2 x NVIDIA A100 80 GB | 24 48 | 120 GB 240 GB | Virtual Server for VPC Red Hat OpenShift | |
| NVIDIA L40S GPU – Für kleine bis mittelgroße Modelle | 1 X NVIDIA L40S 48 GB 2 X NVIDIA L40S 48 GB | 24 48 | 120 GB 240 GB | Virtual Server for VPC Red Hat OpenShift | |
| NVIDIA L4 GPU – Für kleine KI-Modelle, die weniger Speicher benötigen | 1 X NVIDIA L4 24 GB 2 X NVIDIA L4 24 GB 4 X NVIDIA L4 24 GB | 16 32 64 | 80 GB 160 GB 320 GB | Virtual Server for VPC Red Hat OpenShift | |
| NVIDIA V100 GPU – Für den Einstieg mit geringem KI-Speicherbedarf | 1 X NVIDIA V100 16 GB | 8 | 64 GiB | Virtual Server for VPC Red Hat OpenShift |