Stellen Sie NVIDIA GPUs für Anwendungsfälle im Bereich generativer KI, traditioneller KI, HPC und Visualisierung auf der vertrauenswürdigen, sicheren und kostengünstigen IBM Cloud-Infrastruktur bereit.
Trainieren, validieren, implementieren und stimmen Sie generative KI-Modelle auf eine Vielzahl von Anwendungsfällen wie Kundenservice, digitale Arbeit und Anwendungsmodernisierung ab.
Verwenden Sie KI- und ML-Algorithmen, um Prognosen und Vorhersagen zu treffen, die auf spezifischen Benutzerbedürfnissen und Geschäftsanforderungen basieren.
Verbesserte Vernetzung und Speicherung von GPUs zur Beschleunigung rechenintensiver Anwendungen für Finanz-, EDA- und Life Science-Workloads.
Verwenden Sie GPUs zur Unterstützung von technischen Simulationen, Produktdesign-Workstations, Gaming, 3D-Modellierung und AR/VR.
Langfristiger Job mit einer erstklassigen GPU-Infrastruktur
10–500+ erstklassige GPUs (pro Job)
Empfohlene GPUs: H100, L40S
Modelloptimierung mit benutzerdefiniertem Datensatz für nachgelagerte Aufgaben
1+ mittel- bis erstklassiges GPU (pro Job)
Empfohlene GPUs: L40S
Empfindlichkeit gegenüber Latenz & Durchsatz, immer kostenabhängig
Einzelne oder ein Teil der GPU pro Aufgabe
Empfohlene GPUs: L40S, L4
GPU
VCPUs
RAM
Bandbreite
1 x NVIDIA L4 24 GB
16
80 GB
32Gbit/s
2 x NVIDIA L4 24 GB
32
160 GB
64 Gbit/s
4 x NVIDIA L4 24 GB
64
320 GB
128 Gbit/s
1 x NVIDIA L40S 48 GB
24
120 GB
48 Gbit/s
2 x NVIDIA L40S 48 GB
48
240 GB
96 Gbps
1 x NVIDIA Tesla V100 16 GB
8
64 GB
16 Gbit/s
1 x NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbit/s
2 x NVIDIA Tesla V100 16 GB
16
128 GB
32 Gbit/s
2 x NVIDIA Tesla V100 16 GB
32
256 GB
64 Gbit/s
H100 GPUs in Kürze verfügbar
GPU-Optionen auf Red Hat OpenShift* |
---|
Profilname
GPU
VCPUs
RAM
Bandbreite
gx3.16x80.l4
1 x NVIDIA L4 24 GB
16
80 GB
32 Gbit/s
gx3.32x160.2l4
2 x NVIDIA L4 24 GB
32
160 GB
32 Gbit/s
gx3.64x320.4l4
4 x NVIDIA L4 24 GB
64
320 GB
32 Gbit/s
GPU-Optionen auf Virtual Server for Classic* |
---|
GPU
VCPUs
RAM
1 x P100
8
60 GB
2 x P100
16
120 GB
GPU-Optionen auf Bare Metal Server for Classic* |
---|
GPU
CPU
Kerne
RAM
NVIDIA T4
Intel Xeon 8474
96
Bis zu 2048 GB
NVIDIA T4
Intel Xeon 8474
48
Bis zu 2048 GB
NVIDIA T4
Intel Xeon 8474
64
Bis zu 2048 GB
Steigern Sie die Produktivität mit sofort einsatzbereiten KI-Assistenten für Kundenservice, digitale Arbeit und Anwendungsmodernisierung.
Erstellen, skalieren und verwalten Sie KI in Ihrem gesamten Unternehmen – alles auf einer einzigen Plattform.
Überwinden Sie Datenbarrieren und beschleunigen Sie KI mit einer globalen Datenplattform.
Stellen Sie KI-Modelle überall mit einer Hybrid-Cloud-Plattform bereit.
Cloud: GPUs in der IBM Cloud, On-Premises: IBM Storage Fusion.
IBM und NASA kämpfen mit KI-Modellen gemeinsam gegen den Klimawandel.
IBM watsonx erhöhte die Zahl der Helpdesk-Tickets um 40 % pro Tag.
Die Blendow Group konnte in Zusammenarbeit mit IBM den Zeitaufwand für die Suche und Analyse von Rechtsdokumenten um 70 % reduzieren.
20 TB Bandbreite inbegriffen in Rechenzentren in den USA, Kanada und der EU; 5 TB Bandbreite in allen anderen Rechenzentren. Neue Preise und Angebote können nicht mit anderen aktuellen oder zukünftigen Preisnachlässen kombiniert werden.