ما المقصود بتخصيص النموذج اللغوي الكبير؟

المؤلفون

Ivan Belcic

Staff writer

Cole Stryker

Staff Editor, AI Models

IBM Think

ما المقصود بتخصيص النموذج اللغوي الكبير؟

تخصيص النموذج اللغوي الكبير، أو تخصيص LLM، هو عملية تكييف النموذج اللغوي الكبير المدرَّب مسبقًا لمهام محددة. تتضمن عملية تخصيص LLM اختيار نموذج مدرَّب مسبقًا، يُعرف أيضًا باسم نموذج الأساس، ثم تكييف النموذج وفقًا لحالة الاستخدام المقصودة.

سير عمل تخصيص النموذج اللغوي الكبير

تم تصميم عملية إنشاء LLM مخصص لتطبيق النماذج المعممة على سياقات أكثر تحديدًا. وعلى الرغم من توفُّر العديد من طرق تخصيص LLM، فإن العملية العامة تميل إلى اتِّباع سلسلة مماثلة من الخطوات.

  1. إعداد البيانات: يعتمد الأداء الأمثل للنموذج على بيانات التدريب القوية. يتعين على منشئي النماذج وعلماء البيانات جمع وتجميع مجموعة بيانات تدريبية خاصة بمجال معين، والتي تكون ذات صلة بالغرض المقصود من النموذج. ومع وجود قاعدة معرفية من البيانات عالية الجودة، من المرجح أن تكون استجابات النموذج دقيقة ومفيدة.
     

  2. اختيار النموذج: تُعَد قائمة النماذج اللغوية الكبيرة عديدة ومتنوعة. تختلف نماذج الذكاء الاصطناعي من حيث الحجم والفاعلية واستخدام الموارد الحسابية والبنية، وكل ذلك يؤثِّر في الأداء. يتطلب اختيار النموذج الصحيح فهم أهداف وقيود مشروع التعلم الآلي.
     

  3. تخصيص النموذج: هنا، يعمل متخصصو التعلم الآلي على تحويل نموذج الأساس إلى أداة متخصصة. سيتم تخصيص مخرجات النموذج لمهام نهائية محددة. يجب أن يفهم المطورون طريقة عمل نموذج الأساس وطريقة التخصيص المختارة لتحسين سلوك النموذج بنجاح.
     

  4. التكرار: تعمل خوارزميات التعلم الآلي بشكل أفضل عندما يتم تدريبها باستخدام عمليات خطوة بخطوة، بدلًا من إجراء تعديلات ضخمة. يمكن للمطورين قياس تأثير تقنية التخصيص في كل خطوة واستخدام تلك النتائج لتوجيه التكرار التالي.
     

  5. الاختبار: بعد اكتمال التدريب، ولكن قبل الاستخدام في العالم الحقيقي، يتم اختبار النموذج للتحقق من الأداء الموثوق به. يتأكَّد المطورون من فاعلية تعديلاتهم ومن أن النموذج يطبِّق المعرفة المحددة التي حصل عليها حديثًا دون أن يعاني من نسيان كارثي.
     

  6. نشر النموذج: يتم نشر النموذج المخصص في بيئة الإنتاج الخاصة به، مثل تطبيق برمجي يعمل بالذكاء الاصطناعي أو واجهة برمجة التطبيقات، ويتم توفيره لحالات استخدام محددة في العالم الحقيقي.

أحدث اتجاهات الذكاء الاصطناعي، يقدمها لك الخبراء

احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! لقد اشتركت بنجاح.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

تقنيات تخصيص النموذج اللغوي الكبير

واعتمادًا على حالة الاستخدام والمخرجات المطلوبة، يختار المطورون ومتخصصو التعلم الآلي من بين مجموعة من طرق تخصيص LLM. يمكن لجميع أنواع تخصيص LLM تشكيل أداء نموذج الذكاء الاصطناعي التوليدي للمهام اللاحقة المحددة.

تشمل تقنيات تخصيص LLM ما يلي:

التوليد المعزز بالاسترجاع (RAG)

يربط التوليد المعزز بالاسترجاع (RAG) النموذج اللغوي الكبير بمصدر خارجي للبيانات لتوسيع قاعدة معارفه. عندما يُرسِل المستخدم استعلامًا، يبحث نظام RAG في قاعدة البيانات المزدوجة عن المعلومات ذات الصلة، ثم يدمج ذلك مع الاستعلام لمنح LLM مزيدًا من السياق عند إنشاء استجابة.

يستخدم نظام RAG التضمينات لتحويل قاعدة البيانات أو مصدر الرمز أو معلومات أخرى في قاعدة بيانات متجهات قابلة للبحث. ترسم التضمينات كل نقطة بيانات رياضيًا في مساحة متجهات ثلاثية الأبعاد. للعثور على البيانات ذات الصلة، يقوم نموذج استرجاع المعلومات في نظام RAG بتحويل استعلامات المستخدم إلى تضمينات ويحدِّد موقع التضمينات المماثلة في قاعدة بيانات المتجهات.

تتَّبِع أنظمة RAG عادةً التسلسل القياسي نفسه:

  1. المطالبة: يُرسِل المستخدم مطالبة إلى واجهة المستخدم، مثل روبوت المحادثة المدعوم بالذكاء الاصطناعي.
     

  2. الاستعلام: يعمل نموذج استرجاع المعلومات على تحويل المطالبة إلى تضمين ويستفسر من قاعدة البيانات عن بيانات مماثلة.
     

  3. الاسترجاع: يسترجع نموذج الاسترجاع البيانات ذات الصلة من قاعدة البيانات.
     

  4. الإنشاء: يجمع نظام التوليد المعزز بالاسترجاع البيانات التي تم استرجاعها مع استعلام المستخدم ويرسلها إلى النموذج اللغوي الكبير، الذي يُنشئ استجابة.
     

  5. التسليم: يُرجِع نظام RAG الاستجابة التي تم توليدها للمستخدم.

حصل نظام RAG على اسمه من الطريقة التي تستخدمها أنظمة RAG لاسترجاع البيانات ذات الصلة وتعزيز استجابة النموذج اللغوي الكبير التي يتم توليدها. تقدِّم أنظمة RAG الأكثر تعقيدًا عناصر إضافية لتحسين العملية وتعزيز جودة الاستجابة بشكل أكبر.

فوائد التوليد المعزز بالاسترجاع (RAG)

منح النموذج اللغوي الكبير (LLM) إمكانية الوصول إلى المعرفة الخاصة بالمجال يسمح له بدمج تلك البيانات في عملية توليد استجاباته. ويؤدي هذا إلى زيادة دقة وموثوقية حلول الذكاء الاصطناعي دون الحاجة إلى استثمار كبير في التكلفة، خاصةً إذا كانت البيانات الخارجية متاحة بالفعل وجاهزة لاستخدام التعلم الآلي.

على سبيل المثال، يمكن لنموذج RAG المصمم للإجابة عن الأسئلة أن يقدِّم إجابات أفضل عندما يتمكن من العثور على الإجابات الصحيحة في قاعدة المعرفة المرتبطة به.

ويكن أن يساعد استخدام RAG مع النماذج الأصغر حجمًا على تحقيق أداء أعلى. توفِّر النماذج اللغوية الصغيرة (SLMs) متطلبات حسابية أقل وأوقات تدريب أسرع ووقت انتظار أقل في الاستدلال. يحافظ إنشاء نظام RAG حول SLM على هذه الفوائد مع الاستفادة من الدقة الكبرى الخاصة بالسياق التي يوفرها RAG.

أكاديمية الذكاء الاصطناعي

لماذا تعد نماذج الأساس نقلة نوعية في الذكاء الاصطناعي

تعرَّف على فئة جديدة من نماذج الذكاء الاصطناعي المرنة والقابلة لإعادة الاستخدام التي يمكن أن تفتح مصادر جديدة للإيرادات، وتُسهم في تقليل التكاليف، وزيادة الإنتاجية، ثم استخدم دليلنا لمعرفة المزيد من التفاصيل.

الضبط الدقيق

يتضمن الضبط الدقيق للنموذج اللغوي الكبير إجراء تعديلات متكررة على الإعدادات الداخلية التي توجِّه سلوكه. تُعرَف هذه الإعدادات باسم مَعلمات النموذج أو الأوزان، وتتحكم في كيفية معالجة النموذج للبيانات وتقييمها.

أثناء التدريب ، تقوم خوارزمية التعلم الخاصة بالنموذج بضبط المَعلمات حتى يتم الوصول إلى الأداء الأمثل. في هذه المرحلة، يُعتبر أن عملية التدريب قد اكتملت بنجاح.

يمكن أن تحتوي نماذج LLM المتقدمة، وخاصة المحوِّلات مثل GPT من OpenAI وLlama من Meta، على مليارات المَعلمات. ونظرًا لأن هذه النماذج كبيرة جدًا، فإن الضبط الدقيق الكامل غالبًا ما يكون باهظ الثمن ويستغرق وقتًا طويلًا.

تعمل طرق الضبط الدقيق الأكثر دقة على ضبط بعض مَعلمات النموذج أو إضافة مَعلمات جديدة بهدف الحفاظ على أداء التدريب مع زيادة الكفاءة في أداء مهام محددة.

تتضمن طرق الضبط الدقيق البارزة ما يلي:

الضبط الدقيق الفعَّال للمَعلمات (PEFT)

يقوم PEFT بتجميد معظم مَعلمات النموذج المدرَّب مسبقًا ويركِّز على تعديل المَعلمات الأكثر صلة بالمهمة الجديدة. وبذلك، فإنه يستهلك موارد حسابية أقل بكثير من عملية الضبط الدقيق الكاملة. يُعَد PEFT مجالًا واسع النطاق مع العديد من التطبيقات.

نقل التعلم

يستفيد التعلم الانتقالي من معرفة النموذج المدرَّب مسبقًا للمهام الجديدة، حيث يطبِّق ما يعرفه بالفعل في سياق جديد. وهو يعمل بشكل أفضل عندما تكون المهمة الجديدة مرتبطة بالمهمة الأصلية، مثل عند استخدام مصنِّف للتعرُّف على تصنيفات أو أنواع جديدة من الكائنات وتصنيفها.

في هذا المثال، يُعرف نوع التعلم الانتقالي الذي يتم تطبيقه باسم التعلم متعدد المهام: حيث يتم ضبط النموذج بدقة لأداء عدة مهام في وقت واحد. هنا، هذه المهام الجديدة هي التعرُّف على الكائنات وتصنيفها.

التكيف منخفض الرتبة (LoRA)

التكيُّف منخفض الرتبة (LoRA) هو نهج معياري للضبط الدقيق يضيف مَعلمات إضافية إلى نموذج مدرَّب مسبقًا. يقوم LoRA بتجميد مَعلمات النموذج المدرب مسبقًا ويضيف ملحقًا يُعرف باسم مصفوفة الرتبة المنخفضة التي تتكيف مع استجابات النموذج لتتوافق مع متطلبات حالة استخدام أو مهمة محددة.

تخيَّل LoRA كمجموعة من القبعات السحرية التي تمكِّن مرتديها من أداء مهارة مرتبطة بها. ارتدِ قبعة الطباخ السحرية واطبخ وجبة من خمس نجوم. ارتدِ خوذة البناء السحرية وابنِ منزلًا. ارتدِ خوذة الدراجة النارية السحرية واربح جائزة Isle of Man TT. ارتدِ القبعة السحرية للبيسبول وسجِّل النقطة الحاسمة للفوز بالمباراة.

التعلم المعزز باستخدام التعليقات البشرية (RLHF)

يستخدم التعلم المعزز مع التعليقات البشرية (RLHF) نموذج مكافأة مشتركًا لضبط نموذج مدرَّب مسبقًا على مهام معقدة وذاتية. لا يستطيع نموذج التعلم الآلي الحكم على إذا ما كانت قطعة الكتابة معبِّرة أم لا، ولكن البشر قادرون على ذلك، ويمكن لهؤلاء البشر تعليم النموذج كيفية تقليد تفضيلاتهم.

باستخدام RLHF، يقوم البشر بتدريب نموذج المكافأة للمهمة الجديدة. تتمثل مهمة نموذج المكافأة في التنبؤ بنجاح بكيفية رد فعل الإنسان تجاه مدخلات معينة. في حين أن التدريب النموذجي القياسي يعاقب على الأخطاء، فإن التدريب بالمكافأة يحفِّز الأداء الجيد.

بعد ذلك، يقوم نموذج المكافأة بدوره بتعليم نموذج الأساس كيفية التصرُّف، بناءً على تفضيلات المدرِّبين البشر. بمجرد تدريب نموذج المكافأة، يمكنه تدريب نموذج الأساس دون الحاجة إلى تدخل الإنسان في الحلقة (HITL).

كما هو الحال مع جميع أنواع التعلم الآلي، فإن النموذج لا يفكر بشكل نقدي، ولا يفكر على الإطلاق. بل إنه يختار رياضيًا النتيجة التي من المرجح أن تتوافق مع تفضيلات مدربيه البشر.

الضبط الدقيق المستمر (CFT)

الضبط الدقيق المستمر (CFT) هو نوع من التعلم المستمر الذي يقوم بتكييف النموذج بشكل متسلسل مع المهام الجديدة. باستخدام ضبط التعليمات -تدريب نموذج باستخدام أزواج مصنّفة من المدخلات التعليمية والمخرجات ذات الصلة- يتم تكييف النموذج مع مجموعة بيانات أوسع للمهام اللاحقة. غالبًا ما يقوم CFT بتعليم النماذج كيفية أداء المهمة نفسها على توزيعات بيانات مختلفة.

أحد المخاطر المرتبطة بجميع أنواع التعلم المستمر هو النسيان الكارثي: عندما يفقد النموذج القدرة على أداء المهام القديمة بعد تكييفه مع المهام الجديدة. لحسن الحظ، طوَّر باحثو التعلم الآلي العديد من تقنيات التخفيف لمساعدة المطورين على تجنُّب النسيان الكارثي أثناء السعي إلى تحقيق التعلم المستمر.

فوائد الضبط الدقيق

يعمل الضبط الدقيق على تكييف النماذج مع حالات الاستخدام الجديدة مع تجنُّب تكاليف تطوير نماذج جديدة. ويعمل العديد من أنواع الضبط الدقيق على زيادة الكفاءة عن طريق ضبط عدد صغير من المَعلمات فقط. وتتألق عملية الضبط الدقيق في المواقف التي لا تتوفر فيها بيانات كافية لتدريب نموذج من الصفر.

هندسة المطالبات

تُعرَف أيضًا باسم التعلم في السياق أو التعلم القائم على المطالبات، وتتضمن هندسة المطالبات معلومات ذات صلة في المطالبة لمساعدة النموذج اللغوي الكبيرة على توليد استجابات أفضل. أثناء الاستدلال -عندما يُرسِل النموذج مطالبة إلى المستخدم- يقدِّم المستخدم عادةً تعليمات وأمثلة واضحة لمتابعتها.

على سبيل المثال، يمكن للنموذج الذي يُطلب منه إجراء تلخيص النص أن يستفيد من مطالبة توضِّح له كيفية تنسيق ملخصه - ربما في شكل قائمة نقطية. تساعد المطالبات الأكثر شمولًا النموذج على إرجاع نوع الاستجابة الذي يتوقع المستخدم تلقيه.

طوَّر باحثو التعلم العميق أنواعًا عديدة من تقنيات هندسة المطالبات. ومن بين أبرز التطورات المهمة ما يلي:

  • المطالبة بخطوات قليلة: يُعطى النموذج عددًا قليلًا من المخرجات النموذجية (المعروفة باسم اللقطات) وبعد ذلك تتم نمذجة استجاباته. يمكن للنموذج اتِّباع الأمثلة وبناء استجابته على اللقطات التي يوفرها المستخدم في المطالبة.
     

  • المطالبة بطريقة سلسلة التفكير (CoT): تتضمن المطالبة طريقة تفكير خطوة بخطوة يتِّبعها النموذج. يقوم النموذج ببناء عملية توليد الاستجابة وفقًا لسلسلة التفكير التي قدَّمها المستخدم. المطالبة بطريقة سلسلة التفكير (CoT) هي تقنية متقدمة تتطلب فهمًا عمليًا لكيفية توليد الاستجابات من قِبَل النماذج اللغوية الكبيرة.

فوائد هندسة المطالبات

على عكس العديد من تقنيات تخصيص النماذج اللغوية الكبيرة الأخرى، لا تتطلب هندسة المطالبات أي برمجة أو تطوير إضافي. بدلًا من ذلك، يجب أن يكون مهندسو المطالبات على دراية جيدة بالسياق الذي سيتم نشر نموذج LLM فيه حتى يتمكنوا من صياغة مطالبات فعَّالة ومستنيرة.

عند تنفيذها بشكل صحيح، تُعَد هندسة المطالبات تقنية قيّمة في معالجة اللغة الطبيعية (NLP) والتي تسمح لأي شخص -وخاصةً المبتدئين في الذكاء الاصطناعي (AI)- بتخصيص نماذج LLM. إلى جانب التوافر الواسع النطاق للنماذج اللغوية الكبيرة مفتوحة المصدر وأدوات الذكاء الاصطناعي مفتوحة المصدر، تُعَد هندسة المطالبات بوابة يمكن الوصول إليها للتعلم الآلي، تشجِّع على التجربة والاستكشاف والمثابرة.

حلول ذات صلة
نماذج الأساس

استكشف مكتبة نماذج الأساس من IBM في محفظة watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.

اكتشف watsonx.ai
حلول الذكاء الاصطناعي

استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات المتعلقة بالذكاء الاصطناعي

أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

استكشف مكتبة نماذج الأساس من IBM في محفظة IBM watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.

استكشف watsonx.ai استكشف حلول الذكاء الاصطناعي