نماذج Meta Llama 4 Maverick وLlama 4 Scout متوفرة الآن في watsonx.ai

عرض توضيحي للصفحة الرئيسية لـ watsonx.ai

مؤلف

Maryam Ashoori

VP of Product and Engineering, watsonx.governance

IBM

يسرُّ IBM أن تعلن عن إضافة الجيل الأحدث من النماذج المفتوحة من Meta، نماذج Llama 4، إلى watsonx.ai. وتُعَد Llama 4 Scout وLlama 4 Maverick أولى نماذج "مزيج الخبراء" (MoE) التي تطلقها Meta، وهي تقدم أداءً متقدمًا متعدد الوسائط، وسرعات عالية، وتكلفة منخفضة، وطول سياق رائدًا على مستوى القطاع.

يمثِّل إطلاق Llama 4 بداية عصر جديد لسلسلة Llama، حيث يقدم تطورًا مذهلًا في بنية النموذج ونهجًا مبتكرًا لدمج أنواع البيانات المختلفة -بما في ذلك النصوص، الصور، ومقاطع الفيديو- في مرحلة مبكرة من المعالجة مقارنةً بالنماذج التقليدية. يدعم النموذجان الجديدان مجموعة واسعة من حالات الاستخدام التي تشمل إدخال نصوص وإخراج نصوص، بالإضافة إلى إدخال صور وإخراج نصوص.

مع تقديم هذه العروض الأخيرة من Meta، تدعم IBM الآن ما مجموعه 13 نموذجًا من Meta في المكتبة المتنوعة لنماذج الأساس المتاحة في watsonx.ai. ومن خلال التزام IBM باستراتيجية مفتوحة ومتعددة النماذج للذكاء الاصطناعي التوليدي، نواصل توفير أفضل النماذج المفتوحة أداءً في السوق على الإطلاق لعملاء منصتنا.

بنية فعَّالة

تهدف بنية مزيج الخبراء (MoE) إلى موازنة سعة المعرفة للنماذج الكبيرة مع كفاءة الاستدلال للنماذج الصغيرة من خلال تقسيم طبقات شبكة النموذج العصبية إلى عدة "خبراء". بدلًا من تفعيل كل مَعلمة للنموذج لكل رمز مميز، تستخدِم نماذج MoE دالّة بوابة تعمل على تفعيل "الخبراء" الأنسب فقط لمعالجة هذا الرمز المميز.

يحتوي Llama 4 Scout، وهو الأصغر بين النموذجين الجديدين، على إجمالي 109 مليارات مَعلمة، ومقسم إلى 16 خبيرًا. وأثناء الاستدلال، لا يتم تفعيل سوى 17 مليار مَعلمة فقط، ما يُتيح له خدمة عدد أكبر من المستخدمين بالتوازي. وقد تم تدريبه على 40 تريليون وحدة نصية، ويقدم أداءً يضاهي أو يتفوق على نماذج ذات عدد مَعلمات نشطة أكبر بكثير، مع الحفاظ على انخفاض التكاليف وزمن الاستجابة. وعلى الرغم من متطلبات الحوسبة المحدودة هذه، يتفوق Llama 4 Scout على النماذج المماثلة في اختبارات الترميز، والاستدلال، والسياقات الطويلة، وفهم الصور.

ينقسم Llama 4 Maverick إلى 128 خبيرًا، مستفيدًا من المعرفة المستمدة من إجمالي 400 مليار مَعلمة، مع الحفاظ على نفس عدد المَعلمات النشطة البالغ 17 مليارًا كما في Llama 4 Scout. ووفقًا لإعلان Meta AI الرسمي، يتفوق Llama 4 Maverick على GPT-4o من OpenAI وGemini 2.0 Flash من Google "بشكل شامل" في مجموعة واسعة من اختبارات الأداء متعددة الوسائط، ويضاهي أداء DeepSeek-V3 الأكبر حجمًا في مهام الاستدلال والبرمجة.

طول السياق الرائد في الصناعة

بالإضافة إلى ذلك، يوفر Llama 4 Scout أفضل نافذة سياق في المجال تصل إلى 10 ملايين رمز، مع الحفاظ على دقة ممتازة في اختبارات السياق الطويل مثل Needle-in-a-haystack (NiH). هذا التقدم غير المسبوق يفتح آفاقًا جديدة لتلخيص مستندات متعددة، والاستدلال على قواعد بيانات برمجية ضخمة، وتخصيص التجربة من خلال ذاكرة واسعة لنشاط المستخدم.

كما يوضح إعلان Meta، فإن هذا التوسع الهائل في طول السياق يرجع بشكل رئيسي إلى ابتكارين: استخدام طبقات انتباه متداخلة دون تضمينات موضعية، وتعديل درجة الحرارة في وقت الاستدلال لآلية الانتباه في النماذج. ويمثل هذا الهيكل المعماري الجديد، الذي تطلق عليه Meta اسم "iRope"، خطوة مهمة نحو هدفها طويل المدى بدعم طول سياق لا نهائي.

تعدد الوسائط الأصلي

في حين أن النماذج اللغوية الكبيرة يتم تدريبها تقليديًا مسبقًا على بيانات نصية فقط، ثم يُعاد تكييفها لاحقًا لدعم أنواع بيانات أخرى مثل الصور، فإن نماذج Llama 4 صُممت لتكون متعددة الوسائط بشكل أصيل. وقد أتاح ذلك لشركة Meta تدريب النماذج مسبقًا باستخدام كميات هائلة من البيانات غير الموسومة من النصوص والصور ومقاطع الفيديو دفعة واحدة، ما ساهم بكفاءة في إثراء النماذج بمعرفة متكاملة من مصادر متنوعة.

تضمّن تدريب نماذج Llama 4 عملية "دمج" لأنواع مختلفة من البيانات في وقت مبكر من سلسلة المعالجة، ما سمح بدمج الرموز النصية والبصرية بسلاسة لتدريبها كنظام موحد واحد. ونتيجة لذلك، تقدِّم نماذج Llama 4 Maverick وLlama 4 Scout أداءً ممتازًا في مجموعة من مهام فهم الصور، حيث يمكنها التعامل مع مطالبات نصية تتعلق بعدة صور في وقت واحد أو ربط استجابات النموذج بمناطق محددة داخل صورة واحدة.

نماذج Llama 4 على IBM watsonx

يمكن للمطورين والشركات اختيار نموذج Llama 4 المفضل لديهم من الكتالوج الواسع لنماذج الأساس على IBM watsonx.ai، ثم تخصيصه وتبسيطه ونشره عبر البيئات السحابية أو المحلية أو الطرفية حسب احتياجهم. وتُعزز IBM هذه المرونة من خلال بنيتها التحتية المتقدمة للذكاء الاصطناعي، وتكاملها السلس مع أطر عمل الوكلاء، وتوافقها مع قواعد بيانات المتجهات.

يعمل IBM watsonx على تبسيط عملية التطوير من خلال مجموعة أدوات تشمل البرمجة الكاملة، والبرمجة منخفضة الكود، ودون كود، وذلك ضمن استوديو بمعايير مؤسسية يدعم دورة حياة الذكاء الاصطناعي بالكامل ويعزز التعاون بين الفرق. كما يوفر IBM watsonx حوكمة قوية وشاملة للذكاء الاصطناعي، ما يضمن تنفيذ مهام سير العمل بشكل مسؤول وسريع. وبالاعتماد على خبرتها العميقة في التحول التكنولوجي، توفر شراكة IBM مع Meta استراتيجيات مخصصة لتلبية احتياجات المؤسسات بكفاءة وفاعلية.

شاهد كيفية إنشاء مدرب شخصي قائم على الذكاء الاصطناعي مع Meta Llama 4 على watsonx.ai.

ابدأ باستخدام نماذج Llama 4 على watsonx.ai اليوم.