قم بالتوسع بكفاءة مع إمكانية الوصول عند الطلب إلى وحدات معالجة الرسومات NVIDIA على IBM Cloud
يحتوي موقع ®IBM Cloud على مجموعة واسعة من وحدات معالجة الرسومات NVIDIA مثل H200 وL40S لتناسب احتياجاتك الخاصة وأعباء عمل الذكاء الاصطناعي على أفضل وجه، مثل التدريب أو الاستدلال أو الضبط الدقيق. تدعم وحدات معالجة الرسومات مجموعة كبيرة من تطبيقات الاستدلال التوليدي للذكاء الاصطناعي وقدراته وأطر عمله، بما في ذلك النماذج اللغوية الكبيرة (LLM) والنماذج متعددة الوسائط (MMM). احصل على عبء عمل الذكاء الاصطناعي الخاص بك في المنتج بسرعة بناءً على أهداف وضع عبء العمل الخاص بك مع تمكين متعدد المنصات، بما في ذلك IBM Cloud Virtual Servers for VPC، أو ®IBM watsonx، أو Red Hat® RHEL AI أو OpenShift® AI والبنى القابلة للنشر.
يتم إقران وحدات معالجة الرسومات NVIDIA مع معالجات ®Intel® Xeon من الجيل الرابع على IBM Cloud Virtual Servers for VPC. هناك عدة طرق للاعتماد والنشر بناء على متطلبات البنية التحتية والبرامج الخاصة بك.
يمكن نشر وحدات معالجة الرسومات NVIDIA من خلال مثيلات IBM Cloud Virtual Servers for VPC السحابية. تم تصميم IBM Cloud VPC لتوفير المرونة العالية والأمان داخل شبكة محددة بالبرمجيات (SDN) حيث يمكن للعملاء إنشاء سحابات خاصة معزولة مع الحفاظ على فوائد السحابة العامة الأساسية. تعد مثيلات NVIDIA GPU السحابية، التي تدعم أيضًا صور Red Hat Enterprise Linux AI (RHEL AI)، مثالية للعملاء الذين لديهم مجموعات برامج متخصصة للغاية، أو أولئك الذين يحتاجون إلى التحكم الكامل في الخادم الأساسي الخاص بهم.
يمكن للعملاء الذين يحتاجون إلى التحكم الكامل في مجموعة الذكاء الاصطناعي الخاصة بهم ، بدءًا من البنية التحتية وحتى أعباء العمل، نشر ®IBM watsonx.ai إلى الخادم الافتراضي المستند إلى وحدة معالجة الرسومات NVIDIA على IBM Cloud VPC. يُعَد IBM watsonx.ai استوديو تطوير ذكاء اصطناعي شاملًا ومتكاملًا يتميز بمجموعة أدوات مطور للذكاء الاصطناعي وإدارة كاملة لدورة حياة الذكاء الاصطناعي لتطوير خدمات الذكاء الاصطناعي ونشرها في التطبيقات التي تختارها.
يمكن للعملاء الذين يرغبون في حرية اختيار أطر عمل الذكاء الاصطناعي مع المساعدة أيضًا على ضمان النشر السريع والآمن لأعباء عمل الذكاء الاصطناعي الخاصة بهم استخدام البنى القابلة للنشر لوحدات معالجة الرسومات NVIDIA على ®IBM Cloud.
يُعَد Red Hat OpenShift AI منصة مرنة وقابلة للتطوير للذكاء الاصطناعي والتعلم الآلي (ML) تمكِّن الشركات من إنشاء وتقديم تطبيقات مدعومة بالذكاء الاصطناعي على نطاق واسع عبر البيئات السحابية الهجينة. صُمِّم OpenShift AI باستخدام تقنيات مفتوحة المصدر، وهو يوفر قدرات موثوق بها ومتسقة من الناحية التشغيلية للفرق لتجربة النماذج وتقديم تطبيقات مبتكرة.
وحدة معالجة الرسومات (GPU) | VCPU | ذاكرة الوصول العشوائي | التكوين | ||
---|---|---|---|---|---|
وحدة معالجة الرسوميات NVIDIA H200 - للنماذج الكبيرة للذكاء الاصطناعي التقليدي والتوليدي | 8 × NVIDIA H200 بسعة 141 جيجابايت | 160 | 1792 جيجا بايت | Virtual Server for VPC Red Hat OpenShift | |
وحدة معالجة الرسوميات NVIDIA H100 - للنماذج الكبيرة للذكاء الاصطناعي التقليدي والتوليدي | 8 × NVIDIA H100 بسعة 80 جيجابايت | 160 | 1792 جيجا بايت | Virtual Server for VPC Red Hat OpenShift | |
وحدة معالجة الرسوميات NVIDIA A100-PCIe - للنماذج الكبيرة للذكاء الاصطناعي التقليدي والتوليدي | 1 × NVIDIA A100 بسعة 80 جيجابايت 2 × NVIDIA A100 80 جيجابايت | 24 48 | 120 جيجابايت 240 جيجابايت | Virtual Server for VPC Red Hat OpenShift | |
وحدة معالجة الرسومات NVIDIA L40S - للطرازات الصغيرة والمتوسطة الحجم | 1 × NVIDIA L40S 48 جيجابايت 2 × NVIDIA L40S بسعة 48 جيجابايت | 24 48 | 120 جيجابايت 240 جيجابايت | Virtual Server for VPC Red Hat OpenShift | |
وحدة معالجة الرسومات NVIDIA L4 - لنماذج الذكاء الاصطناعي الصغيرة التي تتطلب ذاكرة أصغر | 1 × NVIDIA L4 بسعة 24 جيجابايت 2 × NVIDIA L4 بسعة 24 جيجابايت 4 × NVIDIA L4 بسعة 24 جيجابايت | 16 32 64 | 80 جيجابايت 160 جيجابايت 320 جيجابايت | Virtual Server for VPC Red Hat OpenShift | |
وحدة معالجة الرسومات NVIDIA V100 - لبداية باستخدام بصمة صغيرة للذكاء الاصطناعي | 1 × NVIDIA V100 بسعة 16 جيجابايت | 8 | 64 جيجابايت | Virtual Server for VPC Red Hat OpenShift |