ذكاء اصطناعي مدمج قابل للتوسع وموفر للطاقة وآمن
يُحدِث الذكاء الاصطناعي تحولًا في الصناعات، وتحتاج الشركات إلى بنية تحتية قادرة على التعامل مع أعباء عمل الذكاء الاصطناعي بكفاءة وأمان.
يوفر خادم IBM LinuxONE، المدعوم بمعالج IBM Telum، تسريع الذكاء الاصطناعي مباشرةً داخل الشريحة، ما يُتيح الاستدلال الفوري لعدة نماذج ذكاء اصطناعي بزمن انتقال قصير للغاية. تُتيح هذه القدرة المتقدمة -عند دمجها مع الذكاء الاصطناعي التنبؤي والنماذج اللغوية الكبيرة- للشركات تحليل البيانات في موقعها، ما يوفر رؤى أسرع وأكثر عمقًا للتطبيقات الحيوية مثل الكشف المتقدم عن الاحتيال، وتحليل المخاطر، والتصوير الطبي.
تُعَد بطاقة IBM Spyre Accelerator مسرِّع ذكاء اصطناعي بقدرة 75 واط من نوع PCIe Gen 5x، مزوَّدة بذاكرة LPDDR5 بسعة 128 جيجابايت، ومحسَّنة لتطبيقات الذكاء الاصطناعي التوليدي والنماذج اللغوية الكبيرة (LLMs).8 تضم 32 (+2) نواة مع ذاكرة مؤقتة سريعة بسعة 2 ميجابايت لكل نواة، مع كفاءة استخدام تزيد على 55%، ويمكن توسيعها على مستوى البطاقات والوحدات، ما يمكِّن المؤسسات من تنفيذ استدلالات الذكاء الاصطناعي المعقدة بكفاءة عبر التطبيقات المؤسسية.
من خلال إضافة بطاقات IBM Spyre Accelerator إلى IBM LinuxONE 5، يمكن تمكين حالات استخدام إضافية، بما في ذلك تطبيقات الذكاء الاصطناعي التوليدي.
تتعاون IBM مع منظومة IBM LinuxONE لمساعدة مزوِّدي البرمجيات المستقلين (ISVs) على تقديم حلول لمواجهة تحديات الذكاء الاصطناعي والاستدامة والأمن الإلكتروني الحالية.
اكتشِف حلّين مبتكرَين تم تصميمهما خصيصًا للمؤسسات المالية والرعاية الصحية: Clari5 Enterprise Fraud Management على IBM LinuxONE 4 Express لمنع الاحتيال في الوقت الفعلي، ومنصة Exponential AI’s Enso Decision Intelligence على LinuxONE لتقديم حلول ذكاء اصطناعي متقدمة على نطاق واسع.
1 إخلاء المسؤولية: إخلاء المسؤولية: تستند نتائج الأداء إلى اختبارات IBM الداخلية التي يتم تشغيلها على IBM Systems Hardware من نوع الجهاز 9175. تم نشر تطبيق OLTP وPostgreSQL على أجهزة IBM Systems. يتكون إعداد الذكاء الاصطناعي لمجموعة الكشف عن الغش في بطاقات الائتمان (CCFD) من نموذجَين (LSTM وTabFormer). على أجهزة IBM Systems، يتم تشغيل تطبيق OLTP باستخدام المحوِّل البرمجي IBM Z Deep Learning (zDLC) مع ملف JAR المحوَّل برمجيًا وIBM Z Accelerated for NVIDIA Triton Inference Server محليًا ومعالجة عمليات الاستدلال الذكي على النوى والمسرع المتكامل للذكاء الاصطناعي مقارنةً بتشغيل تطبيق OLTP محليًا ومعالجة عمليات الاستدلال الذكي عن بُعد على خادم x86 يعمل بنظام NVIDIA Triton Inference Server مع واجهة OpenVINO للمعالجة الخلفية باستخدام وحدة المعالجة المركزية (CPU) (مع AMX). تم تشغيل كل سيناريو من Apache JMeter 5.6.3 مع 64 مستخدمًا متوازيًا. تكوين أجهزة IBM Systems: 1 LPAR يعمل بنظام Ubuntu 24.04 مع 7 أنوية مخصصة (SMT)، وذاكرة 256 جيجابايت، ووحدة التخزين IBM FlashSystem 9500. تم تخصيص محولات الشبكة لاستخدام NETH على Linux. تكوين خادم x86: خادم واحد يعمل بنظام Ubuntu 24.04، مزود بـ 28 معالج Intel® Xeon® Gold من نوع Emerald Rapids بسرعة 2.20 جيجاهرتز، مع تفعيل Hyper-Threading، وذاكرة بحجم 1 تيرابايت، وأقراص SSD محلية، ونظام UEFI مع تفعيل ملف الأداء الأقصى، بالإضافة إلى تعطيل التحكم في حالة P للمعالج (P-State) وحالات C (C-States). وقد تختلف النتائج.
2، 3 إخلاء المسؤولية: تستند نتيجة الأداء إلى اختبارات داخلية أجرتها IBM على أجهزة IBM Systems من النوع 9175. تم تنفيذ الاختبار باستخدام خيط واحد يُجري عمليات استدلال محلية باستخدام نموذج اصطناعي للكشف عن الغش في بطاقات الائتمان قائم على LSTM، بهدف الاستفادة من المسرِّع المتكامل للذكاء الاصطناعي. حجم الدفعة المستخدم يبلغ 160. تكوين أجهزة IBM Systems: وحدة LPAR واحدة تعمل بنظام Red Hat Enterprise Linux 9.4، مزودة بـ 6 أنوية (مع تفعيل المعالجة المتزامنة للخيوط SMT) وذاكرة بسعة 128 جيجابايت. وقد تختلف النتائج.