IBM Cloud® menyediakan berbagai macam GPU NVIDIA, seperti H200 dan L40S, yang sesuai untuk memenuhi kebutuhan spesifik Anda dan beban kerja AI, seperti pelatihan, inferensi, atau penyempurnaan. GPU mendukung berbagai macam aplikasi, kemampuan, dan kerangka kerja inferensi AI generatif, termasuk model bahasa besar (LLM) dan model multi-modal (MMM). Masukkan beban kerja AI Anda ke dalam produk dengan cepat berdasarkan tujuan penempatan beban kerja Anda dengan optimalisasi di berbagai platform, termasuk IBM Cloud Virtual Server for VPC, IBM watsonx®, Red Hat® RHEL AI, atau OpenShift® AI dan Arsitektur yang Dapat Diterapkan.
GPU NVIDIA dipasangkan dengan prosesor Intel® Xeon® Generasi ke-4 pada IBM Cloud Virtual Server for VPC. Ada beberapa cara untuk mengadopsi dan menerapkan berdasarkan infrastruktur dan persyaratan perangkat lunak Anda.
GPU NVIDIA dapat diterapkan melalui IBM Cloud Virtual Server for VPC untuk instans cloud VPC. IBM Cloud VPC dirancang untuk ketahanan dan keamanan tinggi di dalam jaringan yang ditentukan perangkat lunak (SDN) di mana klien dapat membangun cloud pribadi terisolasi sambil mempertahankan manfaat cloud publik yang penting. Instans cloud GPU NVIDIA, yang juga mendukung gambar Red Hat Enterprise Linux AI (RHEL AI), ideal untuk klien dengan tumpukan perangkat lunak yang sangat khusus, atau mereka yang memerlukan kontrol penuh atas server yang mendasarinya.
Klien yang membutuhkan kontrol penuh atas seluruh tumpukan AI mereka, dari infrastruktur hingga beban kerja, dapat menerapkan IBM watsonx.ai® ke virtual servers berbasis GPU NVIDIA mereka di IBM Cloud VPC. IBM watsonx.ai adalah studio pengembangan AI lengkap, terintegrasi, menyeluruh yang menampilkan toolkit pengembang AI dan manajemen siklus hidup AI lengkap untuk mengembangkan layanan AI dan menerapkannya ke aplikasi pilihan Anda.
Klien yang menginginkan kebebasan untuk memilih kerangka kerja AI sekaligus membantu memastikan penerapan beban kerja AI yang cepat dengan aman dapat menggunakan Arsitektur GPU NVIDIA kami yang Dapat Diterapkan di IBM Cloud.
Red Hat OpenShift AI adalah platform kecerdasan buatan (AI) dan machine learning (ML) yang fleksibel dan dapat diskalakan yang memungkinkan perusahaan membuat dan mengirimkan aplikasi yang didukung AI dalam skala besar di seluruh lingkungan hybrid cloud. Dibangun menggunakan teknologi sumber terbuka, OpenShift AI menyediakan kemampuan tepercaya dan konsisten dari segi operasional bagi tim untuk bereksperimen, menyediakan model, dan menghadirkan aplikasi inovatif.
GPU | vCPU | RAM | Konfigurasikan | ||
---|---|---|---|---|---|
NVIDIA H200 GPU -Untuk AI tradisional besar dan model AI generatif | 8 X NVIDIA H200 141 GB | 160 | 1792 GiB | Virtual Servers for VPC Red Hat OpenShift | |
NVIDIA H100 GPU - Untuk AI tradisional besar dan model AI generatif | 8 X NVIDIA H100 80 GB | 160 | 1792 GiB | Virtual Servers for VPC Red Hat OpenShift | |
NVIDIA A100-PCIe GPU - untuk AI tradisional dan model AI generatif | 1 x NVIDIA A100 80 GB 2 x NVIDIA A100 80 GB | 24 48 | 120 GB 240 GB | Virtual Servers for VPC Red Hat OpenShift | |
NVIDIA L40S GPU - Untuk model ukuran kecil hingga menengah | 1 X NVIDIA L40S 48 GB 2 X NVIDIA L40S 48 GB | 24 48 | 120 GB 240 GB | Virtual Servers for VPC Red Hat OpenShift | |
NVIDIA L4 GPU - Untuk model AI kecil yang membutuhkan memori lebih kecil | 1 X NVIDIA L4 24 GB 2 X NVIDIA L4 24 GB 4 X NVIDIA L4 24 GB | 16 32 64 | 80 GB 160 GB 320 GB | Virtual Servers for VPC Red Hat OpenShift | |
NVIDIA V100 GPU - Untuk memulai dengan jejak AI kecil | 1 X NVIDIA V100 16GB | 8 | 64 GiB | Virtual Servers for VPC Red Hat OpenShift |