تاريخ النشر: 3 يوليو 2024
المساهمون: Tim Mucci
التنسيق الموحّد المُنشأ من GPT (GGUF) هو تنسيق ملف يعمل على تبسيط استخدام ونشر النماذج اللغوية الكبيرة (LLMs). تم تصميم GGUF خصيصًا لتخزين النماذج الاستدلالية والأداء الجيد على أجهزة الكمبيوتر من الفئة الاستهلاكية.
يحقق ذلك من خلال الجمع بين معلمات النموذج (الأوزان والتحيزات) مع البيانات الوصفية الإضافية للتنفيذ الفعال. GGUF واضح وقابل للتوسيع ومتعدد الاستخدامات وقادر على دمج معلومات جديدة دون كسر التوافق مع النماذج القديمة. GGUF هو تطور أحدث يعتمد على الأسس التي وضعها تنسيق الملف السابق ، GGML.
GGUF هو تنسيق ثنائي مصمم بشكل صريح للتحميل السريع وحفظ النماذج. نظرًا لتوافقه مع لغات البرمجة المختلفة مثل Python و R، فقد زاد من شعبية تنسيق GGUF. كما أنه يدعم أيضًا الضبط الدقيق، بحيث يمكن للمستخدمين تكييف النماذج اللغوية الكبيرة مع التطبيقات المتخصصة، ويخزن قوالب سريعة لنشر النماذج عبر التطبيقات. بينما لا يزال GGML قيد الاستخدام، فقد تم استبدال دعمه بـ GGUF.
سجل للحصول على هذا الكتاب الإلكتروني لتتعلم أفضل طرق تحضير مجموعات البيانات واستخدام نماذج الذكاء الاصطناعي، وما هي النتائج التي يمكن أن تتوقعها منظمتك من مشاريع الذكاء الاصطناعي التوليدي، ولماذا يمكن أن يكون لاختيار النموذج الخاطئ تأثير كبير على عملك.
كان GGML هو تنسيق الملف الذي سبق GGUF مباشرة، والذي أنشأه المطور Georgi Gerganov. الاسم عبارة عن مزيج من الأحرف الأولى من اسم Gerganov (GG) و ML للتعلم الآلي. كانت GGML مكتبة تينسور مصممة للأداء العالي على منصات الأجهزة المختلفة. وكانت أيضًا محاولة مبكرة لإنشاء تنسيق ملف لنماذج الذكاء الاصطناعي GPT الخاصة بـ OpenAI لتسهيل مشاركة النماذج وتشغيلها بسهولة. صُمم GGML ليكون واضحًا ويحتوي على جميع المعلومات الضرورية لتحميل النموذج.
كان GGML محاولة مبكرة لجعل النماذج اللغوية الكبيرة متاحة على الأجهزة العادية. لكنها كانت محدودة من حيث المرونة والقابلية للتوسع. وهذا يعني أن GGML احتاجت إلى تعديلات يدوية وواجهت مشكلات في التوافق عند إضافة المستخدمين ميزات جديدة لتجاوز قيودها.
يعالج GGUF قيود GGML ويسمح بإضافة ميزات جديدة مع الحفاظ على التوافق مع النماذج القديمة. نظرًا لأن GGUF يزيل التغييرات الجذرية، فإنه يسهل الانتقال إلى الإصدارات الأحدث ويدعم مجموعة واسعة من النماذج، مما يجعله حلاً شاملاً. قد يستغرق تحويل النماذج الموجودة إلى GGUF وقتًا طويلاً وكما هو الحال مع جميع التنسيقات الجديدة، يجب على المستخدمين والمطورين التعود على تفاصيلها.
Huggingface هي شركة ومنصة يحركها المجتمع توفر أدوات ونماذج لمعالجة اللغة الطبيعية (NLP). أنها توفر مكتبة المحولات (الرابط موجود خارج ibm.com)، والتي تتضمن العديد من النماذج المدربة مسبقًا والتي يمكن تحويلها إلى تنسيق ملف GGUF. تدعم Huggingface أيضا الضبط الدقيق والنشر، مما يجعلها جزءًا لا يتجزأ من النظام البنائي حول GGUF.
المحولات هي نوع من الهندسة المعمارية النموذجية التي أصبحت العمود الفقري للبرمجة اللغوية العصبية الحديثة. يدعم GGUF تخزين ونشر النماذج القائمة على المحولات للتطبيقات التي تعتمد على هذه البنى المتقدمة.
يوفر GGUF تنسيقًا قويًا ومرنًا وفعالًا لنماذج اللغة. يعالج قيود التنسيقات السابقة، ويضمن التوافق مع التقنيات والأساليب المتطورة. كما أن مرونته المعززة وأداءه المحسّن ودعمه لأطر التكميم والنشر المتقدمة تجعله أداة مهمة لمستقبل الذكاء الاصطناعي والتعلم الآلي.
أوزان النماذج هي المعلمات التي يتعلمها نموذج التعلم الآلي في أثناء التدريب. يخزن GGUF هذه الأوزان بكفاءة، ما يسمح بالتحميل والاستدلال السريع. يمكن أن تعزز طرق التحديد الكمي التي تطبَّق على أوزان النماذج تحسين الأداء وتقلل استهلاك الموارد.
يلعب التكميم ، وهو عملية تحويل الإشارات المستمرة إلى تنسيقات رقمية ذات قيم أقل ممكنة ، دورا حاسما في GGUF. يعزز التكميم الكفاءة والأداء ، لا سيما بالنسبة للأجهزة ذات الموارد المحدودة. من خلال تقليل حجم النموذج وتحسين سرعة الاستدلال ، تتطلب النماذج الكمية طاقة حسابية أقل ، مما يؤدي إلى تقليل استهلاك الطاقة. وهذا يجعل GGUF مناسبا للغاية للنشر على الأجهزة الطرفية والأنظمة الأساسية المتنقلة حيث تكون موارد الطاقة مقيدة.
على سبيل المثال، إحدى تقنيات التكميم المحددة المستخدمة هي GPTQ (التكميم الدقيق بعد التدريب للمحولات المولدة المدربة مسبقًا). يقلل GPTQ من الحجم والاحتياجات الحسابية لنموذج لغوي كبير عن طريق تحويل بياناته المعقدة إلى تنسيقات أبسط. يسمح هذا بنشر النماذج اللغوية الكبيرة على الأجهزة ذات الذاكرة وقوة المعالجة الأقل.
تم تصميم GGUF أيضًا لدمج ميزات جديدة دون المساس بالتوافق مع الإصدار السابق. تتيح لك هذه القدرة إضافة أنواع بيانات وبيانات وصفية جديدة، مما يجعل GGUF جاهزًا للمستقبل. مع تطور نماذج التعلم الآلي، يمكن أن يستوعب GGUF هذه التغييرات، مما يحمي الملاءمة والقدرة على التكيف على المدى الطويل.
يعمل تصميم التنسيق الثنائي لـ GGUF على تحسين سرعة تحميل النماذج وحفظها بشكل كبير، وهو أمر حيوي بشكل خاص للتطبيقات التي تتطلب النشر والاستدلال السريع. على سبيل المثال، تستفيد خدمات تحويل اللغات في الوقت الفعلي وأنظمة الذكاء الاصطناعي التفاعلية من كفاءة معالجة ملفات النماذج في GGUF. كلما كان تحميل النموذج واستخدامه أسرع، كانت تجربة المستخدم أفضل في هذه التطبيقات الحساسة للوقت.
تبرُز أهمية GGUF نظرًا إلى توافقه مع تقنيات الضبط المتقدمة، مثل التكيف منخفض الرتبة (LoRA) والتكيف الكمي منخفض الرتبة (QLoRA) والتحديد الكمي التكيفي للوزن (AWQ). تحسِّن هذه التقنيات أداء النموذج واستخدام الموارد.
علاوة على ذلك، يدعم GGUF مستويات كمّية مختلفة، مما يوفر مرونة في الموازنة بين دقة النموذج وكفاءته. تشمل مخططات التكميم الشائعة التي يدعمها GGUF ما يلي:
تشير الكميات إلى مستويات التكميم المختلفة المطبقة على أوزان النموذج، مثل التكميم 2 بت أو 4 بت أو 8 بت.
تستخدم نماذج GGUF أيضًا بنية جهاز الحوسبة الموحدة (CUDA)، وهي منصة حوسبة متوازية وواجهة برمجة تطبيقات تسمح للنماذج باستخدام وحدات معالجة الرسومات لمهام الحوسبة المتسارعة. تعمل هذه الإمكانية على تعزيز الكفاءة والسرعة الحسابية للنماذج اللغوية. أخيرًا، فإن تكامل GGUF مع Langchain، وهو إطار لتطوير ونشر نماذج اللغة، يسهل نشر نماذج GGUF بحيث يمكن استخدامها بفعالية في بيئات وتطبيقات التطوير.
تستخدم شركة ميتا GGUF لنموذجيها LLaMA (Llama -2 و Llama-3)، اللذين تم تصميمهما لمهام معالجة اللغات الطبيعية (NLP) مثل توليد النصوص والتلخيص والإجابة عن الأسئلة. يسمح GGUF في LLaMA بنشر النموذج على تكوينات أجهزة متنوعة، بدءًا من وحدات معالجة الرسوميات عالية الأداء وحتى وحدات المعالجة المركزية (CPUs) الأكثر شيوعًا من فئة المستهلك. Llama-3 هو النموذج الحالي.
تعمل واجهة الويب هذه على إنشاء نص باستخدام النماذج اللغوية الكبيرة وتستخدم GGUF لتخزين النموذج والاستدلال عليه. تتيح مرونة GGUF للمستخدمين تحميل النماذج الكبيرة بسرعة لأداء مهام إنشاء النص بأقل زمن انتقال.
عميل مشهور لتشغيل النماذج اللغوية الكبيرة محليًا، اعتمد KoboldCpp GGUF لتحسين أدائه للمستخدمين النهائيين. هذا مفيد بشكل خاص للهواة والباحثين الذين يحتاجون إلى حلول قوية وسهلة الاستخدام لتجربة النماذج اللغوية الكبيرة على أجهزة الكمبيوتر الشخصية.
يدعم المجتمع التعاوني تطوير GGUF. تم تطوير العديد من المكتبات والأدوات لدعم GGUF، ما يضمن اعتمادها على نطاق واسع ودمجها في مختلف عمليات سير عمل الذكاء الاصطناعي. تتضمن بعض العوامل الأساسية في هذا النظام البيئي:
يمثل طرح نموذج GGUF تحولاً نحو صيغ نماذج توليدية أكثر استدامة وقابلية للتكيف. إن قدرته على دعم مجموعة واسعة من النماذج والتكوينات تعني أنه لا يقتصر على حالات استخدام أو أجهزة محددة. يضمن هذا التنوع قدرة GGUF على الاستمرار في تلبية احتياجات مجتمع الذكاء الاصطناعي مع ظهور تطورات جديدة.
علاوة على ذلك ، فإن تركيز GGUF على التوافق مع إصدار سابق يقلل من الاضطراب أثناء الترقيات ، مما يسهل على المؤسسات الانتقال إلى الإصدارات الأحدث دون توقف كبير أو إعادة تكوين.
يستفيد تنسيق GGUF، بوصفه تنسيقًا مفتوحًا، من المساهمات التعاونية لمجتمع المصادر المفتوحة، ما يساعد على تطويره وتحسينه واعتماده على نطاق واسع. يُبرز اعتماده في مشروعات رفيعة المستوى، مثل LLaMA وأدوات الذكاء الاصطناعي المختلفة، أهميته في التطور المستمر للنماذج اللغوية الكبيرة. وبتسهيل نشر نماذج أسرع وأكثر مرونة ومواكبة للمستقبل، يؤدي GGUF دورًا بالغ الأهمية في تطوير قدرات أنظمة الذكاء الاصطناعي.
تشتمل منصة IBM watsonx للذكاء الاصطناعي والبيانات على ثلاثة مكونات أساسية ومجموعة من مساعدي الذكاء الاصطناعي لمساعدة مؤسستك على بناء تطبيقات ذكاء اصطناعي مخصصة، وإدارة جميع مصادر البيانات، وتسريع مهام سير عمل الذكاء الاصطناعي المسؤول.
تعرّف على كيف يمكن لخدمات استشارات الذكاء الاصطناعي من IBM أن تساعد مؤسستك في تصميم وتوسيع نطاق الذكاء الاصطناعي وإدخاله في عمليات الأعمال لتحقيق عائد استثمار متزايد وتحسين تجربة العملاء والكفاءة.
تتحقق الثقة في الذكاء الاصطناعي باستخدام الذكاء الاصطناعي المناسب للمهمة وتدريبه على البيانات الصحيحة. وينبغي أيضًا بناء الذكاء الاصطناعي على المبادئ الأخلاقية. تقدم شركة IBM حلول الذكاء الاصطناعي التي يمكن أن تساعد الشركات على تحسين الإنتاجية والأداء.
تعرّف على النماذج اللغوية الكبيرة (LLM) والمهام المختلفة التي يمكنها القيام بها، بما في ذلك توليد النصوص، والتلخيص، والترجمة اللغوية، ومساعدي الذكاء الاصطناعي، والمزيد.
استكشف ماهية الذكاء الاصطناعي التوليدي، وما يمكن أن ينشئه وحالات الاستخدام المهمة المستخدمة في المؤسسات اليوم.
استكشف ماهية معالجة اللغة الطبيعية (NLP) والمهام المختلفة التي يمكن أن تؤديها، بما في ذلك فهم اللغة البشرية وتوليدها واستخلاص المعلومات من النص وغير ذلك الكثير.
اكتشف كيفية اعتماد أدوات المساعد المدعوم بالذكاء الاصطناعي في بيئة مؤسسية باستخدام برنامج مصدر مفتوح.