سلّطت طفرة الذكاء الاصطناعي التوليدي (gen AI) الضوء على القوة الدافعة وراءها: النماذج اللغوية الكبيرة (LLMs). توجد بالفعل عشرات من النماذج اللغوية الكبيرة، ولكن مع التطور السريع للتكنولوجيا، تستمر المزيد من نماذج الذكاء الاصطناعي (AI) هذه في الظهور.
فكر في الأمر من منظور صناعة السيارات. لدى مئات الشركات المصنعة للسيارات حول العالم نماذجها الخاصة التي تلبي احتياجات المستهلكين المتنوعة. لقد تطورت السيارات بمرور الوقت أيضًا، من سيارات تعمل بالبنزين إلى سيارات كهربائية تتمتع بالعديد من الميزات الذكية.
وينطبق الأمر نفسه على النماذج اللغوية الكبيرة. فقد بدأت أنظمة الذكاء الاصطناعي هذه كنماذج أساس مكونة من طبقات شبكية عصبية متعددة تم تدريبها على مجموعة بيانات ضخمة.
إنهم يستخدمون تقنيات التعلم العميق لإنجاز مهام معالجة اللغة الطبيعية (NLP) وفهم اللغة الطبيعية (NLU). ومع ذلك، فقد تحسنت قدراتهم لتشمل وظائف الذكاء الاصطناعي الفاعل والاستدلال.
هذا التطور السريع يعني أن مشهد نماذج اللغة الكبيرة يتغير باستمرار. يجب على مطوري الذكاء الاصطناعي تحديث نماذجهم باستمرار أو حتى بناء نماذج جديدة لمواكبة التقدم السريع.
في حين أن مهام معالجة اللغة الطبيعية وفهم اللغة الطبيعية مثل تلخيص المحتوى والترجمة الآلية وتحليل المشاعر وتوليد النصوص لا تزال دعائم أساسية، فإن مطوري الذكاء الاصطناعي يقومون بتكييف نماذجهم لحالات استخدام معينة.
على سبيل المثال، بعض النماذج اللغوية الكبيرة مصممة خصيصًا لتوليد التعليمات البرمجية، بينما البعض الآخر مصنوع للتعامل مع مهام اللغة المرئية.
بينما يستحيل ذكر كل النماذج اللغوية الكبيرة الموجودة، إليك قائمة ببعض النماذج اللغوية الكبيرة الأكثر حداثة وشهرة لمساعدة المؤسسات على تضييق خياراتها والنظر في النموذج الذي يلبي احتياجاتها:
المطور: Anthropic
تاريخ الإصدار: فبراير 2025 لـ Claude 3.7 Sonnet
عدد المعلمات: لم يتم الكشف عنها علنًا
نافذة السياق: 200,000 رمز مميز
الترخيص: ملكية
الوصول: Claude 3.7 Sonnet، Amazon Bedrock، Google Cloud Vertex AI
الإدخال: متعدد الوسائط (صورة، نص)
الناتج: نص
Claude هي عائلة من نماذج لغوية كبيرة (LLMs) مبنية على بنية المحول. إنها النموذج الكبير الذي يقف وراء مساعد الذكاء الاصطناعي الحواري الذي يحمل نفس الاسم. يسترشد تصميم Claude بمبادئ الذكاء الاصطناعي الدستوري، التي تركز على سلامة الذكاء الاصطناعي للحد من السلوكيات الضارة مثل التحيز في الذكاء الاصطناعي.
تتكون عائلة Claude من 3 نماذج ذكاء اصطناعي:
● Claude Haiku
● Claude Sonnet
● Claude Opus
Claude 3.5 Haiku هو أسرع نموذج. إنه مثالي لحالات الاستخدام ذات زمن الانتقال القصير، مثل روبوتات محادثة لخدمة العملاء و إكمال التعليمات البرمجية لتسريع مهام سير العمل.
Claude 3.7 Sonnet هو ما تسميه Anthropic "نموذجها الأكثر ذكاء حتى الآن". يتمتع نموذج الاستدلال هذا بوضع "التفكير الممتد"، مما يسمح له بالتفكير الذاتي قبل الرد. يمكن لمستخدمي واجهة برمجة تطبيقات Anthropic أيضًا تحديد المدة التي يمكن للنموذج أن يفكر فيها.
يمكن تطبيق نموذج Claude 3.7 Sonnet لمهام أكثر تحديدًا مثل توليد التعليمات البرمجية، واستخدام الكمبيوتر (مما يسمح للنموذج اللغوي الكبير باستخدام الكمبيوتر بالطريقة التي يستخدمها بها الإنسان)، واستخراج المعلومات من البيانات المرئية والإجابة على الأسئلة.
Claude 3 Opus هو النموذج الأقوى بين النماذج الثلاثة. حيث يمكنه التعامل مع التحليل المتعمق والمهام الأطول والأكثر تعقيدًا التي تتضمن خطوات متعددة.
المطور: Cohere
تاريخ الإصدار: أبريل 2024 لـ Command R+ وديسمبر 2024 لـ Command R7B
عدد المعلمات: ما يصل إلى 104 مليار
نافذة السياق: 128000 رمز مميز
الترخيص: ملكية
الوصول: Cohere API، Amazon Bedrock، Microsoft Azure AI Studio، Oracle Cloud Infrastructure Generative AI
الإدخال: نص
الناتج: نص
Command هو نموذج اللغة الرائد لـ Cohere. تشمل هذه العائلة من النماذج اللغوية الكبيرة (LLMs) التي تركز على المؤسسات هذه النماذج:
● Command R
● Command R+
● Command R7B
Command R هو نموذج لإنشاء النصوص متعدد اللغات يحتوي على 32 مليار معلمة.1 وقد تم تدريبه لترسيخ قدرته على التوليد المعزز للاسترجاع (RAG) من خلال توفير الاقتباسات في ردوده. يقدم Command R أيضًا إمكانات استخدام الأدوات الحوارية.
Command R+ هو إصدار أكثر قوةً يحتوي على 104 مليار مُعَلِّمَة.2 ويستطيع التعامل مع وظائف التوليد المعزز بالاسترجاع (RAG) المعقدة والاستخدام متعدد الخطوات للأدوات، مما يسمح لوكلاء الذكاء الاصطناعي بجمع أحدث المعلومات وتحديث قاعدة معارفهم من خلال استدعاء أدوات خارجية.
Command R7B إنه أصغر وأسرع نموذج بحجم 7 مليارات معلمة. وهو مثالي لعمليات النشر القائمة على وحدات المعالجة المركزية (CPU)، ووحدات معالجة الرسومات (GPUs) منخفضة الأداء، والأجهزة الطرفية الأخرى، ويمكن تنفيذه للاستدلال على الجهاز.
المطور: DeepSeek
تاريخ الإصدار: يناير 2025
عدد المعلمات: 671 مليار
نافذة السياق: 128,000 رمز مميز
الترخيص: مصدر مفتوح (ترخيص MIT)
الوصول: DeepSeek API، Hugging Face
الإدخال: نص
الإخراج: نص
DeepSeek-R1 هو نموذج استدلالي مفتوح المصدر من شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي. يستخدم بنية تعلم آلي تعتمد على مزيج من الخبراء (MoE) وقد تم تدريبه باستخدام التعلم المعزز واسع النطاق لتحسين قدراته الاستدلالية.
أداء نموذج DeepSeek-R1 مماثل أو حتى أفضل من سلسلة نماذج o1 الخاصة بـ OpenAI في بعض معايير النماذج اللغوية الكبيرة. استخدم DeepSeek-R1 أيضًا استخلاص المعرفة لضبط العديد من نماذج Llama و Qwen الأصغر حجمًا باستخدام بيانات الاستدلال التي تم إنشاؤها بواسطة نموذج DeepSeek-R1 LLM الأكبر بكثير.
أدت النماذج المستخلصة الناتجة إلى تعزيز قدرات الاستدلال لنظيراتها الأصلية، بل وحققت أداءً محسّنًا مقارنة بنماذج أكبر أخرى.3
المطور: معهد الابتكار التكنولوجي
تاريخ الإصدار: ديسمبر 2024 لـ Falcon 3
عدد المعلمات: ما يصل إلى 180 مليار
نافذة السياق: ما يصل إلى 32000 رمز مميز
ترخيص: مصدر مفتوح
الوصول: Hugging Face
الإدخال: نص
الناتج: نص
Falcon هي مجموعة من النماذج مفتوحة المصدر طوّرها باحثون في معهد الابتكار التكنولوجي التابع لدولة الإمارات العربية المتحدة. وقد تم تدريب هذه النماذج على مجموعة بيانات RefinedWeb الخاصة بالمعهد، وهي مجموعة ضخمة تحتوي على بيانات ويب إنجليزية مُفلترة
يتكون Falcon من هذه النماذج اللغوية الكبيرة:
● Falcon 2
● Falcon 3
● Falcon Mamba 7B
تشمل إصدارات Falcon الأخرى الأقدم والأكبر حجمًا Falcon 40B مع 40 مليار معلمة و Falcon 180B مع 180 مليار معلمة.
Falcon 2 11B هو نموذج سببي لفك التشفير فقط مع 11 مليار معلمة. يقدم دعمًا متعدد اللغات وسيتميز قريبا بقدرات تحويل الرؤية إلى اللغة.
Falcon 3 يعتمد على تصميم وحدة فك التشفير فقط ويأتي بأحجام معلمات خفيفة الوزن تبلغ 1 و 3 و 7 و 10 مليارات. وهو يتحسن على سابقه، مما يعزز قدراته المنطقية.
Falcon Mamba 7B هو نموذج لغوي يعتمد على فضاء الحالة (SSLM)، وهو يختلف عن البنية النموذجية للنماذج اللغوية الكبيرة (LLM) التي تعتمد على المحولات. تستخدم نماذج المحولات آلية انتباه "لتركيز انتباهها" على أهم الرموز في تسلسل الإدخال. ومع ذلك، مع ازدياد حجم نافذة السياق، تتطلب المحولات المزيد من الذاكرة وقوة الحوسبة.
تقوم SSLMs بتحديث "الحالة" باستمرار أثناء المعالجة وتستخدم خوارزمية تحديد لضبط المعلمات ديناميكيًا وفقًا للإدخال. هذا يمكّن نموذج Falcon Mamba 7B من معالجة سلاسل نصية طويلة دون الحاجة إلى ذاكرة إضافية وتوليد رموز جديدة في نفس القدر من الوقت بغض النظر عن طول السياق.
عدد المعلمات: لم يتم الكشف عنها علنًا
الترخيص: ملكية
الوصول: Gemini API، Google AI Studio، Google Cloud Vertex AI
الإدخال: متعدد الوسائط (صوت، صورة، نص، فيديو)
الناتج: نص
Gemini هي مجموعة نماذج متعددة الوسائط خاصة بشركة Google. كما أنها تشغل روبوت المحادثة التوليدي للذكاء الاصطناعي (المعروف سابقًا باسم Bard) الذي يحمل نفس الاسم.
يستخدم Gemini نموذج المحولات، وهو بنية شبكية عصبية نشأت من Google نفسها، ويعتمد على نماذج اللغة الأساسية السابقة للشركة، بما في ذلك BERT (تمثيلات التشفير ثنائية الاتجاه من المحولات) و PaLM 2 (نموذج لغة المسارات).
أحدث إصدار، وهو Gemini 2.0، "مصمم لعصر الوكلاء"، وفقًا لـ Google. يأتي Gemini 2.0 في أشكال مختلفة:
● Gemini 2.0 Flash
● Gemini 2.0 Flash-Lite
● Gemini 2.0 Pro
Gemini 2.0 Flash هو نموذج خفيف الوزن يدعم استخدام الأدوات. تشمل الميزات القادمة قريبًا توليد الصور وتحويل النص إلى كلام.
Gemini 2.0 Flash-Lite هو نسخة محسّنة من الإصدار السابق الخفيف الوزن والاقتصادي 1.5 Flash. تحتفظ بنفس السرعة والتكلفة مع تحسين الجودة.
Gemini 2.0 Pro هو ما تطلق عليه Google أقوى نموذج لها للبرمجة ومعالجة المطالبات المعقدة نظرًا لقدرات استخدام الأدوات ونافذة السياق الأطول التي تبلغ مليوني رمز. ولا يزال في المرحلة التجريبية.
المطور: OpenAI
تاريخ الإصدار: مايو 2024 لـ GPT-4o ويوليو 2024 لـ GPT-4o mini
عدد المعلمات: لم يتم الكشف عنها علنًا
نافذة السياق: 128,000 رمز مميز
الترخيص: ملكية
الوصول: OpenAI API using .NET و JavaScript و Python و TypeScript
الإدخال: متعدد الوسائط (صوت، صورة، نص، فيديو)
الإخراج: متعدد الوسائط (صوت، صورة، نص)
المحولات التوليدية المدربة مسبقًا (GPTs) هي مجموعة من النماذج اللغوية الكبيرة التي طورتها OpenAI. يتضمن GPT هذه النماذج اللغوية الكبيرة:
● GPT-4o
● GPT-4o mini
GPT-4o نموذج متعدد اللغات والوسائط. وباعتباره أحد النماذج اللغوية الكبيرة الأكثر تقدمًا، فإن GPT-4o قادر على معالجة المدخلات الصوتية والنصية والمرئية وإنتاج أي مزيج من المخرجات الصوتية والصورية والنصية.
لقد تحسّن أداءه مقارنةً بسابقيه GPT-4 Turbo و GPT-4. GPT-4o هو النموذج اللغوي الكبير الحالي الذي يشغل روبوت المحادثة المدعوم بالذكاء الاصطناعي التوليدي ChatGPT التابع لـ OpenAI.
GPT-4o mini هو طراز أصغر حجمًا وأقل تكلفة، يقبل إدخال الصور والنصوص ويُنتج مخرجات نصية. وقد تفوق في الأداء على GPT-3.5 Turbo.
المطور: ®IBM
تاريخ الإصدار: فبراير 2025
عدد المعلمات: ما يصل إلى 34 مليار
نافذة السياق: 128000 رمز مميز
الترخيص: مصدر مفتوح (Apache 2.0)
الوصول: IBM® watsonx.ai™، Hugging Face، LM Studio، Ollama، Replicate
الإدخال: متعدد الوسائط (صورة، نص)
الناتج: نص
IBM® Granite™ هي سلسلة من نماذج لغوية كبيرة مفتوحة المصدر وجاهزة للاستخدام المؤسسي. وتتضمن هذه النماذج:
● Granite 3.2
● Granite Vision
Granite 3.2 يُدمج قدرات استدلال مُحسّنة وميزات مُتقدّمة لمهام التوليد المعزز بالاسترجاع (RAG). يتوفر بحجمين: 2 و 8 مليارات معلمة.
بيانات تدريب نموذج Granite 3.2 هي مزيج من مجموعات بيانات مفتوحة المصدر ذات ترخيص متساهل ومجموعات بيانات اصطناعية عالية الجودة تم جمعها داخليًا ومصممة خصيصًا لحل مشكلات السياق الطويل.
Granite Vision هو نموذج لغوي مرئي يحتوي على ملياري معلمة، مُصمم خصيصًا لفهم المستندات المرئية. وقد صُمم لاستخلاص المحتوى بكفاءة من الرسوم البيانية والجداول، مما يجعله مناسبًا لتحليل البيانات المنظمة.
تتكون النماذج اللغوية الكبيرة الأخرى في سلسلة Granite من هذه النماذج المتخصصة:
● Granite Code
● Granite Guardian
● Granite Embedding
تم تصميم هذه النماذج ذات وحدة فك التشفير فقط لمهام توليد التعليمات البرمجية، بما في ذلك تحرير التعليمات البرمجية، وشرح التعليمات البرمجية، وإنشاء التعليمات البرمجية. تم تدريب نماذج Granite Code باستخدام تعليمات برمجية مكتوبة بـ 116 لغة برمجة وهي متوفرة بأحجام 3 و 8 و 20 و 34 مليار معلمة.
نماذج Granite Guardian هي حواجز حماية قائمة على نماذج لغوية كبيرة (LLM) ومصممة لاكتشاف المخاطر في المطالبات والاستجابات. يتوفر Granite Guardian بأحجام تبلغ 2 و 3 و 5 و 8 مليارات معلمة.
نماذج Granite Embedding هي نماذج محولة للجملة تم إنشاؤها خصيصًا للتطبيقات القائمة على الاسترجاع مثل البحث الدلالي و التوليد المعزز بالاسترجاع.
المطور: xAI
تاريخ الإصدار: فبراير 2025 لـ Grok 3
عدد المعلمات: 314 مليار
نافذة السياق: 128000 رمز مميز
الترخيص: ملكية
الوصول: xAI API
الإدخال: متعدد الوسائط (صورة، نص)
الناتج: نص
Grok هو نموذج لغوي من xAI. النموذج اللغوي الكبير (LLM) من الجيل الأول، Grok-1، هو نموذج خليط من الخبراء (MoE) يحتوي على 314 مليار معلمة. نظرًا لحجمه الهائل، فإن 25% فقط من أوزان نموذج Grok-1 نشطة على أي رمز إدخال مُعطى.
في مارس 2024، أطلقت xAI نموذج Grok-1.5 بنافذة سياق تبلغ 128,000 رمزًا وقدرات محسّنة لحل المشكلات. بعد خمسة أشهر، أطلقت xAI النسخ التجريبية من Grok-2 ونسخته الأصغر، Grok-2 mini. يتمتع Grok-2 بقدرات محادثة وكتابة تعليمات برمجية واستدلال محسّنة بشكل أكبر ويضيف دعمًا للمهام القائمة على الرؤية.
تم تجهيز الإصدارات الأحدث،Grok 3 و Grok 3 mini، بوظائف الاستدلال المتقدمة ووظائف وكيل الذكاء الاصطناعي.
المطور: Meta
تاريخ الإصدار: ديسمبر 2024 لـ Llama 3.3
عدد المعلمات: حتى 405 مليار
نافذة السياق: 128,000 رمز مميز
الترخيص: مصدر مفتوح
الوصول: Meta، Hugging Face، Kaggle
الإدخال: متعدد الوسائط (صورة، نص)
الإخراج: نص
Llama هي مجموعة نماذج لغوية كبيرة (LLMs) تابعة لـ Meta AI. نماذج الانحدار الذاتي تطبق بنية محوّل مُحسّنة، مع إصدارات مُعدّلة تستخدم التدريب الدقيق المُشرف و التعلم المعزز باستخدام التعليقات البشرية (RLHF).5
تخلف مجموعة Llama 3 نماذج Llama 2 اللغوية الكبيرة وتقدم هذه النماذج:
● Llama 3.1
● Llama 3.2
● Llama 3.3
يحتوي Llama 3.1 على نموذج مكون من 8 مليارات معلمة ونموذج أساس رئيسي مكون من 405 مليار معلمة. كلاهما نماذج نصية متعددة اللغات فقط.
يأتي Llama 3.2 بأحجام تبلغ 1 و 3 مليارات معلمة، وهي مدمجة بما يكفي للأجهزة المحمولة وأجهزة الحافة. أما أحجام 11 و 90 مليار معلمة فهي نماذج لغوية كبيرة متعددة الوسائط مُحسّنة للإجابة على الأسئلة العامة حول صورة، والتعليق عليها، والاستدلال المرئي، والتعرف البصري.6
Llama 3.3 هو نموذج نصي فقط متعدد اللغات يحتوي على 70 مليار معيار معلمة. وهو يتمتع بأداء مماثل أو حتى أفضل من أداء Llama 3.1 405B ولكنه أكثر فعالية من حيث التكلفة.
Developer: Mistral AI
تاريخ الإصدار: يوليو 2024 لـ Mistral Large 2
عدد المعلمات: ما يصل إلى 124 مليار
نافذة السياق: ما يصل إلى 256000 رمز مميز
الترخيص: Mistral Research License، Mistral Commercial License، Apache 2.0
الوصول: La Plateforme و Amazon Bedrock و Microsoft Azure AI Studio و Google Cloud Vertex AI و IBM watsonx.ai
الإدخال: متعدد الوسائط (صورة، نص)
الإخراج: نص
شركة Mistral AI ومقرها فرنسا، لديها مجموعة من نماذج لغوية كبيرة تشمل هذه النماذج:
● Mistral Large
● Mistral Small
● Codestral
● Pixtral Large
Mistral Large 2 هو النموذج الرائد لشركة Mistral للذكاء الاصطناعي. يحتوي على 123 مليار معلمة ونافذة سياق تبلغ 128,000 رمز مميز. ويقدم أداءً جيدًا في توليد التعليمات البرمجية والرياضيات والاستدلال. يوفر Mistral Large 2 دعمًا متعدد اللغات وقدرات استدعاء الوظائف.
Mistral Small 3 هو إصدار أكثر إحكاما يضم 24 مليار معلمة. هذا النموذج مناسب للذكاء الاصطناعي الحواري سريع الاستجابة، واستدعاء الوظائف منخفضة زمن الانتقال، والتعامل مع الاستدلال محليًا على الأجهزة ذات الموارد المحدودة. Mistral Small 3 مفتوح المصدر ويصدر بموجب ترخيص Apache 2.0.
Codestral 25.01 هو أحدث جيل من نموذج ترميز Mistral AI. ويتميز بطول سياق يبلغ 256,000 رمزًا مميزًا ويدعم مهامًا مثل إكمال التعليمات البرمجية وتصحيح التعليمات البرمجية وإنشاء التعليمات البرمجية وإنشاء الاختبارات.
Pixtral Large هو نموذج متعدد الوسائط يضم 124 مليار معلمة. وقد بُني على أساس نموذج Mistral Large 2 ويوسع قدراته لتشمل فهم الصور.
المطور: OpenAI
تاريخ الإصدار: سبتمبر 2024 لـ o1 ، يناير 2025 لـ o3-mini
عدد المعلمات: لم يتم الكشف عنها علنًا
نافذة السياق: ما يصل إلى 200000 رمز مميز
الترخيص: ملكية
الوصول: OpenAI API
الإدخال: متعدد الوسائط (صورة، نص)
الناتج: نص
تتضمن سلسلة o1 من نماذج الذكاء الاصطناعي o1 و o1-mini. بالمقارنة مع طرازات GPT من OpenAI، فإن نماذج o1 اللغوية الكبيرة مُجهزة بقدرات استدلال أكثر تقدمًا. لقد تم تدريب كل من o1 و o1-mini باستخدام التعلم المعزز على نطاق واسع، مما يسمح لهما بـ "التفكير" قبل الرد. يمكنهما توليد سلسلة طويلة من الأفكار قبل الإجابة.
يقبل نموذج o1 اللغوي الكبير مدخلات الصور والنصوص على حد سواء، بينما يستطيع نموذج o1-mini التعامل مع المدخلات النصية فقط.7 وبالمقارنة مع o1، فإن o1-mini أصغر حجمًا وأسرع وأكثر فعالية من حيث التكلفة. كما أنه يتفوق في الاستدلال في مجالات العلوم والتكنولوجيا والهندسة والرياضيات (STEM) والبرمجة.
في هذه الأثناء، يعتبر نموذج o3-mini أحدث نموذج استدلال. وعلى غرار نموذج o1-mini، تكمن قوته في البرمجة والرياضيات والعلوم. وهو يدعم خاصية استدعاء الدوال ويوفر 3 خيارات لجهد الاستدلال (منخفض ومتوسط وعال) لتحسين الأداء في سيناريوهات مختلفة، مثل المشكلات المعقدة التي تحتاج إلى جهد استدلال أكبر أو المشكلات الأبسط التي تتطلب استجابات سريعة ويمكن أن تستخدم استدلالًا أقل.
تاريخ الإصدار: سبتمبر 2024 لـ Qwen 2.5 ويناير 2025 لـ Qwen2.5-Max
عدد المعلمات: ما يصل إلى 72 مليار
نافذة السياق: ما يصل إلى مليون رمز مميز
ترخيص: مصدر مفتوح (Apache 2.0)، خاص بالنماذج الأكبر
الوصول: Alibaba Cloud و Hugging Face
الإدخال: متعدد الوسائط (صوت، صورة، نص، فيديو)
الإخراج: نص
Qwen هي سلسلة من النماذج اللغوية الكبيرة (LLMs) مقدمة من شركة الحوسبة السحابية الصينية Alibaba Cloud. تشتمل Qwen على نماذج لغوية ومتغيرات محسّنة لمهام الصوت والبرمجة والرياضيات والرؤية.
تقدم Qwen هذه النماذج:
● Qwen 2.5
● Qwen Audio
● Qwen Coder
● Qwen Math
● Qwen VL
نماذج Qwen2.5 هي نماذج فك تشفير فقط لمهام معالجة اللغة متعددة اللغات. وهي تأتي بأحجام معلمات تبلغ 0.5 و 3 و 7 و 14 و 32 و 72 مليار معلمة. النماذج الأكبر، مثل النسخة التي تحتوي على 72 مليار معلمة، متاحة فقط من خلال الوصول إلى واجهة برمجة التطبيقات على منصة الحوسبة السحابية الخاصة بـ Alibaba.
يتميز نموذج Qwen2.5-Turbo بطول سياق أطول يبلغ مليون رمز مميز وسرعة استدلال أسرع. وفي الوقت نفسه، يعتبر نموذج Qwen2.5-Max أحدث نموذج MoE واسع النطاق.
Qwen 2 Audio مُصمم خصيصًا للمهام الصوتية. يمكن استخدام هذا النموذج ذو 7 مليارات معلمة في النسخ الصوتي، واكتشاف الأصوات وتصنيفها، والتعامل مع الأوامر الصوتية، وتحديد العناصر الموسيقية.
Qwen2.5 Coder هو نموذج لغوي كبير خاص بالتعليمات البرمجية. وهو متوفر بأحجام تبلغ 1.5 و 7 و 14 و 32 مليار معلمة.
Qwen 2 Math هي مجموعة من نماذج لغوية كبيرة مُحسّنة للرياضيات. هذه النماذج مناسبة للاستدلال الرياضي المتقدم وحل مسائل الرياضيات المعقدة. يتوفر Qwen 2 Math بأحجام تبلغ 1.5 و 7 و 72 مليار معلمة.
Qwen 2 VL هو نموذج لغة مرئي يجمع بين معالجة الصور وفهم اللغة الطبيعية. تتضمن حالات الاستخدام النموذجية استخراج المعلومات من البيانات المرئية وإنشاء تعليقات وتلخيصات للصور ومقاطع الفيديو. Qwen 2 VL متاح بأحجام تبلغ 2 و 7 و 72 مليار معلمة.
المطور: Stability AI
تاريخ الإصدار: أبريل 2024 لـ Stable LM 2 12B
عدد المعلمات: ما يصل إلى 12 مليار
نافذة السياق: 4096 رمز مميز
الترخيص: الترخيص: رخصة مجتمع Stability AI أو رخصة مؤسسية
الوصول: Stability AI و Hugging Face
الإدخال: نص
الناتج: نص
نماذج Stable LM هي مجموعة من نماذج اللغة ذات الوصول المفتوح مقدمة من Stability AI، الشركة المطورة لنموذج تحويل النص إلى صورة Stable Diffusion. يحتوي نموذج Stable LM 2 12B على 12 مليار معلمة، بينما يحتوي نموذج Stable LM 2 1.6B على 1.6 مليار معلمة. هذه النماذج هي نماذج لغوية كبيرة (LLMs) تعتمد على بنية فك التشفير فقط، وقد تم تدريبها على بيانات متعددة اللغات ومجموعات بيانات برمجية. يشتمل كلا النموذجين على خاصية استدعاء الوظائف واستخدام الأدوات.
Stable Code 3B هو نموذج لغوي كبير آخر تم ضبطه بدقة على مجموعات بيانات متعلقة بالتعليمات البرمجية. وباعتباره نموذجًا خفيف الوزن يحتوي على 3 مليارات معلمة، يمكن تشغيل Stable Code 3B في الوقت الفعلي على الأجهزة، حتى تلك التي لا تحتوي على وحدة معالجة رسوميات (GPU).
تؤدي كل الروابط إلى صفحات خارج ibm.com
1 بطاقة نموذج C4AI Command R 08-2024، Hugging Face، تم الوصول إليها في 14 فبراير 2025.
2 بطاقة نموذج C4AI Command R+ 08-2024، Hugging Face، تم الوصول إليها في 14 فبراير 2025.
3 DeepSeek-R1: تحفيز القدرة على الاستدلال المنطقي في النماذج اللغوية الكبيرة من خلال التعلم المعزز، GitHub، بتاريخ 23 يناير 2025.
4 قم بالوصول إلى أحدث النماذج التجريبية 2.0 في تطبيق Gemini ، Google، بتاريخ 5 فبراير 2025.
5 معلومات عن النموذج، GitHub، بتاريخ 30 سبتمبر 2024.
6 معلومات عن النموذج، GitHub، بتاريخ 30 سبتمبر 2024.
7 o1 و o1-mini، OpenAI، تم الوصول إليه في 14 فبراير 2025.
استكشف مكتبة نماذج الأساس من IBM في محفظة watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.