مجموعة أدوات الذكاء الاصطناعي على IBM Z وLinuxONE

عزّز أداء الذكاء الاصطناعي مفتوح المصدر على IBM Z وLinuxONE من خلال أداء محسّن ودعم موثوق.

رسم توضيحي يعرض مجموعة أدوات الذكاء الاصطناعي لسير عمل IBM Z وIBM LinuxONE

انشر الذكاء الاصطناعي بسرعة وثقة

مجموعة الأدوات للذكاء الاصطناعي على IBM Z وLinuxONE هي مجموعة من أُطُر الذكاء الاصطناعي مفتوحة المصدر، مدعومة ومُحسّنة للعمل على معالج Telum. تبنَّ الذكاء الاصطناعي مع الحاويات المعتمدة، والمسرعات المدمجة، والدعم المتخصص. تستخدم هذه الأطر المسرّعات المدمجة لمعالجة الذكاء الاصطناعي داخل الشريحة في أنظمة z16 وLinuxONE 4 وz17 وLinuxONE 5.

نشر موثوق للذكاء الاصطناعي على نطاق واسع

انشر الذكاء الاصطناعي مفتوح المصدر بدعم IBM Elite Support وحاويات IBM المعتمدة لضمان الامتثال والأمان والثقة في البرمجيات غير المضمونة.

الذكاء الاصطناعي المتسارع في الوقت الفعلي

يوفّر المسرّع المدمج لمعالج الذكاء الاصطناعي Telum II في نظام IBM z17 أداءً للاستدلال يُضاهي خادم x86 يحتوي على 13 نواة — ضمن النظام نفسه الذي يدير أحمال معالجة المعاملات عبر الإنترنت (OLTP).1

الاستدلال على نطاق واسع

تتيح أنظمة IBM z17 وLinuxONE 5 استدلالًا محسّنًا باستخدام INT82، لتشغيل نماذج متعددة في التنبؤ، مع القدرة على تنفيذ ما يصل إلى 450 مليار عملية استدلال يوميًا بزمن استجابة يقل عن 1 مللي ثانية. تعتمد النتائج التي تقدمها هذه الأدوات على نموذج تعلم عميق مخصص للكشف عن الغش في بطاقات الائتمان.3

دعم نماذج الذكاء الاصطناعي المتعددة

انشر نماذج التعلم الآلي (ML) والتعلّم العميق (DL) والنماذج اللغوية الكبيرة (LLMs) مع أداء استدلال أسرع يصل إلى 3.5 مرات عند تنفيذ التنبؤات.4 تتكامل هذه النماذج بسهولة مع PyTorch وTensorFlow وSnap ML وOpen Neural Network Exchange (ONNX) وغيرها من الأطُر.

الميزات

طوّر ونفّذ نماذج التعلم الآلي بسلاسة باستخدام أُطر عمل TensorFlow وPyTorch المحسّنة خصيصًا لجهاز IBM Z، مع الاستفادة من التسريع المدمج لتحسين أداء الاستدلال في الشبكات العصبية.

شخص يستخدم جهاز كمبيوتر محمولًا يتفاعل مع تطبيق ذكاء اصطناعي.
متوافق مع PyTorch

سرّع تطوير ونشر نماذج التعلم الآلي القائمة على الشبكات العصبية باستخدام IBM Z Accelerated for PyTorch، الذي يوفّر تكاملًا سلسًا مع إطار العمل PyTorch.

استكشِف إمكانيات الاستدلال باستخدام PyTorch
شخص يتفاعل مع شاشة تعرض شبكات.
متوافق مع TensorFlow

سرّع تطوير ونشر نماذج التعلم الآلي القائمة على الشبكات العصبية باستخدام IBM Z Accelerated for TensorFlow، الذي يوفّر تكاملًا سلسًا مع إطار العمل TensorFlow.

استكشِف إمكانيات الاستدلال باستخدام TensorFlow
شخص يستخدم جهاز كمبيوتر محمولًا داخل غرفة خوادم.
نماذج التعلم الآلي مع TensorFlow Serving

استفد من قدرات TensorFlow Serving، وهي منصة مرنة وعالية الأداء لتقديم النماذج، من خلال IBM Z Accelerated for TensorFlow Serving، ما يسهل نشر نماذج التعلم الآلي في بيئات الإنتاج.

استكشِف TensorFlow Serving
شخصان ينظران إلى شاشة تفاعلية
خادم استدلال NVIDIA Triton Inference Server

تم تحسين IBM Z Accelerated for NVIDIA Triton Inference Server لتقديم أداء عالٍ لاستدلال الذكاء الاصطناعي، على معالجات Telum ونظام Linux on Z. يدعم الخادم ميزات مثل التجميع الديناميكي، والتكامل مع أطر متعددة، بالإضافة إلى دعم نظم خلفية مخصصة على كل من وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسوميات (GPU).

اكتشف خادم Triton Inference Server
شخص ينظر إلى شاشة سطح المكتب وبجانبه كمبيوتر محمول مفتوح.
تشغيل Snap ML

استخدم IBM Z Accelerated for Snap ML لبناء ونشر نماذج التعلم الآلي باستخدام Snap ML، وهو برنامج من IBM غير مشمول بالضمان، يهدف إلى تحسين تدريب وتقييم النماذج الشائعة في التعلم الآلي.

استكشِف إمكانيات التعلم الآلي عبر IBM Snap ML
شخص ينظر إلى ثلاث شاشات سطح مكتب.
ترجمة نماذج ONNX الخاصة بالتعلم الآلي باستخدام IBM zDLC

استفد من قدرات الاستدلال المسرّع على الشريحة في معالجي Telum وTelum II مع نماذج ONNX، وذلك باستخدام IBM Z® Deep Learning Compiler (IBM zDLC) على أنظمة IBM z/OS® وzCX وLinuxONE. يُعد IBM zDLC محولًا برمجيًا لنماذج الذكاء الاصطناعي، ويوفر إمكانيات مثل التكميم التلقائي إلى INT8 (Auto-quantization) لتقليل زمن الانتقال وخفض استهلاك الطاقة.

استكشِف IBM Deep Learning Compiler استخدام IBM zDLC Container Images
شخص يستخدم جهاز كمبيوتر محمولًا يتفاعل مع تطبيق ذكاء اصطناعي.
متوافق مع PyTorch

سرّع تطوير ونشر نماذج التعلم الآلي القائمة على الشبكات العصبية باستخدام IBM Z Accelerated for PyTorch، الذي يوفّر تكاملًا سلسًا مع إطار العمل PyTorch.

استكشِف إمكانيات الاستدلال باستخدام PyTorch
شخص يتفاعل مع شاشة تعرض شبكات.
متوافق مع TensorFlow

سرّع تطوير ونشر نماذج التعلم الآلي القائمة على الشبكات العصبية باستخدام IBM Z Accelerated for TensorFlow، الذي يوفّر تكاملًا سلسًا مع إطار العمل TensorFlow.

استكشِف إمكانيات الاستدلال باستخدام TensorFlow
شخص يستخدم جهاز كمبيوتر محمولًا داخل غرفة خوادم.
نماذج التعلم الآلي مع TensorFlow Serving

استفد من قدرات TensorFlow Serving، وهي منصة مرنة وعالية الأداء لتقديم النماذج، من خلال IBM Z Accelerated for TensorFlow Serving، ما يسهل نشر نماذج التعلم الآلي في بيئات الإنتاج.

استكشِف TensorFlow Serving
شخصان ينظران إلى شاشة تفاعلية
خادم استدلال NVIDIA Triton Inference Server

تم تحسين IBM Z Accelerated for NVIDIA Triton Inference Server لتقديم أداء عالٍ لاستدلال الذكاء الاصطناعي، على معالجات Telum ونظام Linux on Z. يدعم الخادم ميزات مثل التجميع الديناميكي، والتكامل مع أطر متعددة، بالإضافة إلى دعم نظم خلفية مخصصة على كل من وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسوميات (GPU).

اكتشف خادم Triton Inference Server
شخص ينظر إلى شاشة سطح المكتب وبجانبه كمبيوتر محمول مفتوح.
تشغيل Snap ML

استخدم IBM Z Accelerated for Snap ML لبناء ونشر نماذج التعلم الآلي باستخدام Snap ML، وهو برنامج من IBM غير مشمول بالضمان، يهدف إلى تحسين تدريب وتقييم النماذج الشائعة في التعلم الآلي.

استكشِف إمكانيات التعلم الآلي عبر IBM Snap ML
شخص ينظر إلى ثلاث شاشات سطح مكتب.
ترجمة نماذج ONNX الخاصة بالتعلم الآلي باستخدام IBM zDLC

استفد من قدرات الاستدلال المسرّع على الشريحة في معالجي Telum وTelum II مع نماذج ONNX، وذلك باستخدام IBM Z® Deep Learning Compiler (IBM zDLC) على أنظمة IBM z/OS® وzCX وLinuxONE. يُعد IBM zDLC محولًا برمجيًا لنماذج الذكاء الاصطناعي، ويوفر إمكانيات مثل التكميم التلقائي إلى INT8 (Auto-quantization) لتقليل زمن الانتقال وخفض استهلاك الطاقة.

استكشِف IBM Deep Learning Compiler استخدام IBM zDLC Container Images

حاويات آمنة ومتوافقة من IBM

الحاويات المتوفرة في مجموعة أدوات الذكاء الاصطناعي على AI IBM Z وLinuxONE

تتكون مجموعة أدوات الذكاء الاصطناعي من IBM Elite Support (ضمن IBM Selected Support) و IBM Secure Engineering. تعمل هذه الأدوات على فحص واعتماد أطر تقديم الذكاء الاصطناعي مفتوحة المصدر وحاويات IBM المعتمدة بحثًا عن الثغرات الأمنية والتحقق من الامتثال للوائح الصناعة.

يمكن الوصول من خلال IBM Container Registry
حالات الاستخدام
شخص يحمل شريحة تقنية
معالجة اللغة الطبيعية في الوقت الفعلي

استفد من قدرات الاستدلال بالذكاء الاصطناعي على الشريحة لتحليل كميات ضخمة من البيانات غير المنظمة على IBM Z وLinuxONE. تقديم تنبؤات أسرع وأكثر دقة لتطبيقات مثل روبوتات المحادثة، وتصنيف المحتوى، وفهم اللغة.

شخص يستخدم بطاقة ائتمان عبر خاصية الدفع اللاتلامسي
الكشف عن الغش في بطاقات الائتمان في أجزاء من الثانية

مع إمكانية تنفيذ ما يصل إلى 450 مليار عملية استدلال يوميًا، وزمن انتقال بنسبة 99.9٪ أقل من 1 مللي ثانية، يمكنك كشف الأنشطة الاحتيالية واتخاذ الإجراءات الفورية باستخدام نماذج الذكاء الاصطناعي المركّب وتقنية تسريع Telum.5

شخص يستخدم بطاقة ائتمان عبر خاصية الدفع اللاتلامسي
مكافحة غسل الأموال على نطاق واسع

حدّد الأنماط المشبوهة في المعاملات المالية باستخدام Snap ML وScikit-learn. بفضل تقنيات ضغط البيانات والتشفير والذكاء الاصطناعي على المنصّة، يمكنك تعزيز قدرات الاستجابة لمكافحة غسل الأموال دون التضحية بالأداء أو الأمان.

اتخِذ الخطوة التالية

اكتشف كيف تعمل مجموعة أدوات الذكاء الاصطناعي على IBM Z و LinuxONE على تسريع الذكاء الاصطناعي مفتوح المصدر، مع أداء محسّن ودعم موثوق.

يمكن الوصول من خلال IBM Container Registry
مزيد من الطرق للاستكشاف التوثيق الدعم خدمات دورة الحياة والدعم المجتمع
الحواشي

استخدام مُسرّع مُدمج واحد للذكاء الاصطناعي مع أحمال تشغيل OLTP على جهاز IBM z17 يُحقق نفس مستوى الإنتاجية عند تنفيذ عمليات الاستدلال على خادم x86 بعيد مُقارن يحتوي على 13 نواة.

إخلاء المسؤولية: تستند نتائج الأداء إلى اختبارات داخلية أجرتها شركة IBM® على أجهزة IBM Systems من طراز 9175. تم نشر تطبيق OLTP وPostgreSQL على أجهزة IBM Systems. يتكوّن إعداد الذكاء الاصطناعي لاكتشاف عمليات احتيال بطاقات الائتمان (CCFD) من نموذجين (LSTM، وTabFormer). يتم تشغيل تطبيق OLTP على أجهزة IBM Systems باستخدام ملف jar مُجمّع بواسطة IBM Z Deep Learning Compiler (zDLC) وتشغيل IBM Z Accelerated for NVIDIA® Triton™ Inference Server محليًا، ومعالجة عمليات الاستدلال بالاستدلال بالذكاء الاصطناعي على معالجات IFLs والمسرع المدمج للذكاء الاصطناعي، وذلك بالمقارنة مع تشغيل تطبيق OLTP محليًا ومعالجة عمليات الاستدلال بالذكاء الاصطناعي عن بُعد على خادم x86 يشغّل NVIDIA Triton Inference Server باستخدام بيئة التشغيل الخلفية OpenVINO™ على وحدة المعالجة المركزية (CPU) المزودة بتقنية AMX. تم تشغيل كل سيناريو من Apache JMeter 5.6.3 مع 64 مستخدمًا متوازيًا. تهيئة أجهزة IBM Systems Hardware: قسم LPAR واحد يعمل بنظام Ubuntu 24.04 مع 7 معالجات IFLs مخصصة (SMT)، وذاكرة سعة 256 جيجابايت، ووحدة تخزين IBM FlashSystem® 9500. تم تخصيص محولات الشبكة لاستخدام NETH على Linux. تهيئة خادم x86: خادم واحد يعمل بنظام Ubuntu 24.04 مع 28 وحدة معالجة مركزية Intel® Xeon® Gold من نوع Emerald Rapids بسرعة 2.20 جيجاهرتز مع تفعيل Hyper-Threading وذاكرة بسعة 1 تيرابايت، ومحركات أقراص SSD محلية، وإعدادات UEFI مع تمكين ملف تعريف الأداء الأقصى على وضع الأداء الأقصى، مع تعطيل كل من CPU P-State Control و C-States. قد تختلف النتائج.

يدعم معالج IBM z17 Telum II التكميم بتنسيق INT8، المصمم لتقليل زمن انتقال الاستدلال عند مقارنته بالنماذج غير المُكمَّمة.

إخلاء المسؤولية: دعم التكميم INT8 في معالج IBM z17 Telum II يقلل من حجم الأوزان والتفعيلات ويخزنها عبر تحويلها من أرقام بنقطة عائمة 32-بت إلى أعداد صحيحة 8-بت. هذا التخفيض في الدقة يتيح حسابات أسرع، ما يمكن أن يؤدي إلى تقليل زمن تنفيذ الاستدلال مقارنة بالنماذج غير المُكمَّمة.

3,5 باستخدام IBM z17، يمكنك معالجة ما يصل إلى 450 مليار عملية استدلال يوميا باستخدام نماذج ذكاء اصطناعي متعددة للكشف عن الغش في بطاقات الائتمان.

إخلاء المسؤولية: تستند نتائج الأداء إلى اختبارات داخلية أجرتها شركة IBM® على أجهزة IBM Systems من طراز 9175. نُفّذت عملية القياس باستخدام 64 سلسلة معالجة تقوم بعمليات استدلال محلية باستخدام نموذج الكشف عن الغش في بطاقة الائتمان الاصطناعية (CCFD) بناءً على نموذج LSTM ونموذج TabFormer. استخدمت عملية القياس المسرّع المدمج للذكاء الاصطناعي باستخدام المحول البرمجي IBM Z Deep Learning Compiler (zDLC) وأداة IBM Z Accelerated for PyTorch. وقد تم تخصيص 64 مسار معالجة، موزعًا على مجموعات مكوّنة من 8 مسارات لكل شريحة (1مسارًا واحدًا للمحول البرمجي zDLC، وسبع مسارات لأداة PyTorch). قيَّم نموذج TabFormer (محول البيانات الجدولية) 0.035٪ من طلبات الاستدلال. تم استخدام حجم دفعة يبلغ 160 للنموذج المستند إلى LSTM. تهيئة أجهزة IBM Systems: وحدة LPAR واحدة تعمل بنظام Ubuntu 24.04 مزوّدة بعدد 45 معالج IFL (بتقنية المعالجة متعددة المسارات SMT)، وذاكرة بسعة 128 جيجابايت. قد تختلف النتائج.

4 إخلاء المسؤولية: تستند نتائج الأداء إلى اختبارات داخلية أجرتها شركة IBM التي تقوم بالاستدلال باستخدام نموذج Random Forest بالاعتماد على الواجهة الخلفية Snap ML v1.12.0، التي تستخدم المسرع المدمج للذكاء الاصطناعي على IBM Machine Type 3931، وذلك مقارنةً باستخدام الواجهة الخلفية لمكتبة NVIDIA Forest Inference Library على خادم x86 مُناظر. تم تدريب النموذج على مجموعة بيانات عامة واستخدمت منصة NVIDIA Triton™ على كلا النظامين كإطار عمل لخدمة النموذج. تم توجيه أحمال التشغيل عبر أداة القياس Hey لبروتوكول http. تكوين جهاز IBM Machine Type 3931: نظام Ubuntu 22.04 يعمل ضمن وحدة LPAR مزوّد بعدد 6 معالجات IFL مخصصة، وذاكرة بسعة 256 جيجابايت. تكوين جهاز x86 المقارن: نظام Ubuntu 22.04 يعمل على معالج 6 Intel® Xeon® Gold من الجيل Ice Lake بسرعة 2.80 جيجاهرتز مفعّل بخاصية hyper-threading، وذاكرة بسعة 1 تيرابايت.