ما المقصود بالضبط الفوري؟

المؤلفون:

Vrunda Gadesha

AI Advocate | Technical Content Author

الضبط الفوري هو تقنية ضبط دقيق فعَّال من حيث المَعلمات (PEFT) تعمل على تكييف النماذج الكبيرة المدرَّبة مسبقًا لمهام جديدة دون تحديث مليارات المَعلمات الخاصة بها. بدلًا من ذلك، يتعلم مجموعة صغيرة من المتجهات القابلة للتدريب، والتي تُعرَف باسم المطالبات الليّنة (Soft prompts) أو الرموز المميزة الافتراضية، ويتم إدراجها في فضاء مدخلات النموذج. تعمل هذه المتجهات كإشارات مستمرة، توجه النموذج المجمد نحو السلوك المتوقع مع الحفاظ على سلامة البنية الأساسية للنموذج. تقلِّل هذه الطريقة بشكل كبير من تكاليف الحوسبة والتخزين، ما يجعلها مثالية للمؤسسات التي تحتاج إلى تخصيص النماذج الكبيرة عبر عدة حالات استخدام.1، 2

كيف يختلف ذلك عن "المطالبة" و"الضبط الدقيق"؟

تعتمد هندسة المطالبات على صياغة تعليمات نصية ذكية (مطالبات صارمة) لاستنباط السلوك الصحيح من النموذج. على الرغم من فاعليتها في بعض الحالات، فإن المطالبات الصعبة هشة ويصعب تحسينها على نطاق واسع. هذا يعني أنه في هندسة المطالبات، يمكن أن تؤدي تغييرات بسيطة في صياغة النص إلى فروق كبيرة وغير متوقعة في الأداء، ولهذا يصعب تحسينها بشكل منهجي. ومع ذلك، يعمل الضبط الدقيق الكامل على تحديث جميع مَعلمات النموذج، وهو أمر يستهلك قدرًا كبيرًا من الحوسبة ويتطلب مساحة تخزين ضخمة - خاصةً للنماذج التي تحتوي على مئات المليارات من الأوزان. الضبط الفوري يحقق توازنًا: فهو يستخدم التضمينات المستمرة بدل النصوص المنفصلة، ويعمل على تدريب هذه المتجهات الصغيرة فقط، ويحقق أداءً قريبًا من الضبط الدقيق الكامل في العديد من المهام، كل ذلك مع كفاءة أعلى بكثير. 2، 3

فكّر أبعد من المطالبات واحصل على السياق الكامل 

ابقَ مطَّلعًا على أحدث أخبار الصناعة وأدوات الذكاء الاصطناعي والاتجاهات الناشئة في هندسة المطالبات مع رسائل Think الإخبارية. بالإضافة إلى ذلك، احصل على شرح جديد، ودروس تعليمية، ورؤى الخبراء— تصلك مباشرة إلى بريدك الوارد. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! أنت مشترك.

العناصر الرئيسية

يستند نهج الضبط الفوري إلى عناصر أساسية تعمل معًا لتكييف النماذج الكبيرة المدرَّبة مسبقًا. تستخدم هذه الطريقة نموذجًا مجمَّدًا، وتتعلم مجموعة من تضمينات المطالبات الليّنة من خلال تحسين يعتمد على التدرّج، ويتم توجيهها بواسطة مجموعة بيانات خاصة بالمهمة. تمكِّن هذه العناصر من تكييف النموذج بكفاءة من حيث المَعلمات دون إعادة تدريب النموذج بالكامل. 1، 2

النموذج المجمَّد المدرَّب مسبقًا: يعمل نموذج لغوي كبير (LLM) أو محوِّل الرؤية كهيكل أساسي. يظل النموذج مجمَّدًا أثناء التدريب، محافظًا على معرفته العامة مع تقليل تكاليف الحوسبة والتخزين.4

تضمينات المطالبات الليّنة: هذه المطالبات عبارة عن متجهات قابلة للتدريب، تُعرَف أيضًا باسم الرموز المميزة الافتراضية، ويتم ربطها أو إدراجها ضمن المدخلات المرمَّزة. وهي تعمل كإشارات مستمرة تتحكم في النموذج نحو مهمة الإخراج دون تغيير أوزانه الداخلية.
4

مجموعة البيانات الخاصة بالمهمة: مجموعة بيانات مصنَّفة ومتوافقة مع المهمة اللاحقة ضرورية لتحسين المطالبات الليّنة بطريقة خاضعة للإشراف.

التحسين القائم على التدرّج: يتم تحديث مَعلمات المطالبات الليّنة ورأس خفيف الوزن (اختياريًا) باستخدام خوارزميات التحسين، بينما يظل الهيكل الأساسي مجمَّدًا. تضمن هذه الطريقة وجود كفاءة واستقرار في أثناء المهمة.4

مخطط انسيابي للعناصر الرئيسية للضبط الفوري الشكل 1 - العناصر الرئيسية للضبط الفوري

كما هو موضَّح في الشكل، يعمل الضبط الفوري عن طريق إدخال مجموعة صغيرة من المتجهات القابلة للتدريب في مدخلات نموذج تم تدريبه مسبقًا. تعمل هذه المطالبات كتعليمات مخفية توجِّه النموذج نحو المهمة المستهدفة دون الحاجة إلى تحديث مليارات المَعلمات.


بالإضافة إلى هذه العناصر الأساسية، يؤثِّر العديد من خيارات التصميم بشكل كبير في الأداء:

طول المطالبة: يُعَد عدد الرموز المميزة الافتراضية في المطالبة الليّنة إحدى المَعلمات الفائقة الأساسية. أجرى العديد من الباحثين تجارب واستنتجوا أن الطول الأمثل يختلف باختلاف المهمة. على سبيل المثال، قد تعمل مهام التصنيف البسيطة بشكل أفضل مع المطالبات الأقصر (على سبيل المثال، أقل من 20 رمزًا مميزًا)، في حين قد تتطلب مهام وضع العلامات على التسلسل المعقدة مطالبات أطول (على سبيل المثال، حوالي 100 رمز مميز).5

مكان المطالبات: يعمل هذا العنصر على تحسين مكان وضع المطالبات، سواء ظهرت كبادئة أم لاحقة أم متداخلة ضمن تسلسل المدخلات.

استراتيجية التهيئة: يمكن أن يؤثِّر بدء المطالبات الليّنة بقيم عشوائية أم تضمينات مأخوذة عينات منها أم رموز مميزة خاصة بالمهمة في سرعة التقارب ودقة النموذج.

هذه العناصر الإضافية ليست إلزامية، لكنها مُوصى بها لتحقيق أفضل النتائج.

أكاديمية الذكاء الاصطناعي

كن خبيرًا في الذكاء الاصطناعي

اكتسب المعرفة لتحديد أولويات استثمارات الذكاء الاصطناعي التي تدفع نمو الأعمال. ابدأ مع أكاديمية الذكاء الاصطناعي المجانية اليوم وتولَّ زمام المبادرة لتعزيز مستقبل الذكاء الاصطناعي في مؤسستك.

مثال: تحليل المشاعر مع الضبط الفوري

دعونا نفهم مهمة تحليل المشاعر التي تقدِّم شرحًا واضحًا لآلية الضبط الفوري وفوائده. لنفترض أن الهدف هو تكييف نموذج يحتوي على 175 مليار مَعلمة لتصنيف مراجعات الأفلام إلى "إيجابية" أو "سلبية". سيكون نهج الضبط الدقيق الكامل مكلِّفًا وبطيئًا للغاية. عند استخدام الضبط الفوري، تكون العملية كما يلي:

ابدأ بنموذج مدرَّب مسبقًا ومجمَّد: يظل العمود الفقري للنموذج الذي يحتوي على 175 مليار مَعلمة دون أي تعديل، محافظًا على مخزونه الكبير من المعرفة العامة المكتسبة أثناء التدريب المسبق.5

إضافة مطالبات ليّنة: يتم إرفاق مجموعة صغيرة من المتجهات القابلة للتدريب (مثل 20 رمزًا مميزًا افتراضيًا) بتضمينات الإدخال لكل تقييم فيلم. هذه المتجهات ليست نصوصًا قابلة للقراءة من قِبَل البشر؛ فهي تضمينات متواصلة موجودة في نفس الفضاء عالي الأبعاد الذي يحتوي على مفردات النموذج (على سبيل المثال، فضاء ذو 12,288 بُعدًا لنموذج بهذا الحجم). من خلال التحسين، تتعلم هذه المتجهات ترميز إشارة مستمرة خاصة بالمهمة توجِّه سلوك النموذج.

تغذية الإدخال: على سبيل المثال،

[مطالبات ليّنة] كان الفيلم رائعًا تمامًا!

في هذا المثال، لنفترض أننا نهيئ 20 رمزًا مميزًا افتراضيًا كمطالبة ليّنة لمهمة تحليل المشاعر. بعد التدريب، قد يبدو الإدخال بهذا الشكل داخليًا:

[<v1>, <v2>, <v3>, ... <v20>, The, movie, was, absolutely, fantastic, !]

هنا، كل v1 هو متجه مطالبة عالي الأبعاد. الهدف من التدريب هو العثور على القيم المُثلى للمتجهات التي توجِّه النموذج المتجمد لتصنيف مشاعر النص اللاحق بشكل صحيح.

تدريب المطالبات الليّنة فقط: باستخدام مجموعة البيانات المصنَّفة من التقييمات، تبدأ عملية التدريب. من خلال الانتشار الخلفي، يتم حساب تدرّج الخطأ ولكن خطوة التحسين تعمل فقط على تحديث مَعلمات تضمينات المطالبات الليّنة. هذه الطريقة تتضمن ضبط عدد قليل من المَعلمات يبلغ بضعة آلاف فقط، بدلًا من 175 مليار وزن للنموذج.5

النشر بشكل معياري: بمجرد اكتمال التدريب، تشكِّل المجموعة الناتجة المكوَّنة من 20 متجهًا التكيف الخاص بالمهمة بأكمله. لتكييف نموذج الأساس نفسه لمهمة مختلفة، مثل كشف الرسائل المزعجة، يكفي تدريب مجموعة جديدة من المطالبات الليّنة على مجموعة بيانات الرسائل المزعجة واستبدالها عند وقت الاستنتاج.

توفِّر هذه التقنية فوائد كبيرة من حيث الكفاءة. بدلًا من تخزين نسخة كاملة منفصلة من النموذج لكل مهمة -حيث قد يحتاج نموذج مكوَّن من 175 مليار مَعلمة إلى ما يصل إلى 350 جيجابايت- يكفي تخزين مَعلمات المطالبات الخاصة بالمهمة، والتي قد تكون بحجم بضعة كيلوبايت فقط.1 هذه المرونة تجعل ضبط المطالبات حلًا عمليًا وذا تكلفة فعَّالة لتكييف النماذج على نطاق واسع.2

تحليل مقارن مع أساليب PEFT الأخرى

يُعَد ضبط النماذج القائم على المطالبات هو إحدى الفئات ضمن مجموعة واسعة من طرق وضبط المَعلمات الفعَّال (PEFT). يُعَد فهم التداخل بين هذه الطريقة والأساليب الأخرى أمرًا أساسيًا للممارسين لاختيار التقنية الأنسب. الاختيار يكون بين الأداء والقدرة على التعبير والكفاءة وتعقيد التنفيذ.

الطريقةالتعديل البنائيالقدرة على التعبير أو القوةالحجم القابل للتدريبالإيجابياتالسلبيات

الضبط الفوري العميق (P-tuning v2)3

يضيف متجهات قابلة للتدريب ("مطالبات") إلى كل طبقة في النموذج، مؤثِّرًا في آلية الانتباه.

مرتفع. يستدعي مهارات النموذج الموجودة ويجمعها بفاعلية.

حوالي 0.1 - 3% من مَعلمات النموذج.

قابلة للاستخدام عبر جميع أحجام النماذج؛ أبسط من LoRA للعديد من مهام فهم اللغة الطبيعية وإنتاجها.

أقل قدرة على التعبير مقارنةً بـ LoRA في المهام الجديدة تمامًا؛ قد يكون حساسًا للمَعلمات الفائقة.

التكيف منخفض الرتبة (LoRA)6

يضيف مصفوفات قابلة للتدريب ومنخفضة الرتبة بالتوازي مع مصفوفات الأوزان الموجودة (على سبيل المثال، في طبقات الانتباه).

مرتفع جدًا. يمكنه تعلم أنماط وسلوكيات انتباه جديدة بالكامل، ما يجعله أكثر قوة من الأساليب القائمة على المطالبات.

حوالي 0.1 - 1% من مَعلمات النموذج.

أكثر طرق PEFT تعبيرية؛ لا زيادة في زمن الانتقال لأن الأوزان يمكن دمجها.

أكثر تعقيدًا في التنفيذ وضبط مَعلمات الفائقة للرتبة.

المحولات

يضيف وحدات شبكات عصبية صغيرة وجديدة بالتتابع داخل كل طبقة من طبقات المحوِّل.

مرتفع. يضيف قدرة حسابية جديدة إلى النموذج.

حوالي 1 - 4% من مَعلمات النموذج.

مستقرة وموثوق بها وقابلة للتعديل بدرجة عالية.

قد تتسبب في تأخير طفيف أثناء الاستدلال بسبب المعالجة التسلسلية، كما أن عدد المَعلمات أعلى مقارنةً بنموذج LoRA أو المطالبات.

المزايا والقيود

يوفر ضبط المطالبات العديد من الفوائد في التطبيقات في الوقت شبه الفعلي، لكن من المهم فهم قيوده.

المزايا

تكمُن أهم نقاط قوة ضبط المطالبات في الكفاءة والنمطية والحفاظ على معرفة النموذج الأساسي.

كفاءة استثنائية في المَعلمات والتكلفة: الميزة الأبرز هي الانخفاض الكبير في عدد المَعلمات القابلة للتدريب. من خلال تحديث مجموعة صغيرة فقط من متجهات المطالبات الليّنة -والتي غالبًا تمثِّل أقل من 1% من إجمالي النموذج- يقلل الضبط الفوري بشكل كبير من تكاليف الحوسبة والتخزين. تجعل هذه الاستراتيجية تكييف نموذج الأساس ممكنًا للمؤسسات ذات الموارد المحدودة.

النمطية والنشر القابل للتوسع: نظرًا لأن كل مهمة محصورة في مجموعة صغيرة ومستقلة من مَعلمات المطالبات، يمكن تكييف نموذج أساسي ثابت للقيام بعدد كبير من المهام ببساطة عن طريق استبدال ملفات المطالبات الخفيفة أثناء وقت الاستدلال. تتميز هذه البنية "القابلة للتوصيل والتشغيل" بمرونة عالية وتجنُّب الحاجة إلى تخزين وإدارة نُسخ نموذج متعددة بحجم جيجابايت لكل تطبيق.

التخفيف من ظاهرة النسيان الكارثي: قد يؤدي الضبط الدقيق الكامل إلى الكتابة فوق معرفة النموذج المدرَّبة مسبقًا أو تدهورها عند تعلم مهمة جديدة. من خلال إبقاء أوزان النموذج الأساسي مجمَّدة بالكامل، يحافظ الضبط الفوري على المخزون الكبير من المعرفة العامة المكتسبة أثناء مرحلة التدريب المسبق، ما يُتيح إعادة استخدام النموذج دون فقدان قدراته الأساسية.

كفاءة البيانات: بالمقارنة مع الضبط الدقيق الكامل الذي غالبًا ما يتطلب مجموعات بيانات كبيرة ومصنَّفة لكل مهمة جديدة، يمكن للضبط الفوري تحقيق أداء قوي باستخدام مجموعات بيانات أصغر وأكثر تواضعًا.

القيود

رغم مزاياه، لا يخلو الضبط الفوري من عيوب، والتي تتضمن محدودية في القدرة التعبيرية وصعوبات في التدريب وقلة قابلية التفسير.

محدودية القدرة التعبيرية: من القيود النظرية الأساسية أن الضبط الفوري وضبط البادئات أقل قدرة على التعبير مقارنةً بأساليب مثل LoRA أو الضبط الدقيق الكامل للنموذج. أظهرت التحليلات الرسمية أن هذه الأساليب تعمل عن طريق إضافة انحياز إلى مخرجات وحدات الانتباه، لكنها لا تستطيع تغيير أنماط الانتباه التي تعلَّمها النموذج بشكل أساسي. هذا يعني أن الضبط الفوري فعَّال للغاية في استنباط ودمج المهارات الموجودة بالفعل في النموذج، ولكنه قد يفشل في تعلُّم المهام الجديدة حقًا التي تتطلب أنماط استدلال جديدة.

عدم استقرار التدريب وحساسية المَعلمات الفائقة: أحد أهم التحديات العملية هو حساسية الطريقة للمَعلمات الفائقة. قد يكون من الصعب وصول عملية التدريب إلى التقارب، وتعتمد بشكل كبير على اختيار معدل التعلم واستراتيجية تهيئة المطالبات وطولها، وغالبًا ما تتطلب ضبطًا دقيقًا وشاملًا لتحقيق أفضل النتائج.

مشكلة "الصندوق الأسود" في قابلية التفسير: من القيود الرئيسية والمستمرة هي الافتقار الجوهرِي لقابلية تفسير المطالبات الليّنة. نظرًا لأنها متجهات مستمرة وعالية الأبعاد يتم تحسينها عبر الانحدار التدريجي، فهي لا تتوافق مع أي نص يمكن للبشر قراءته. تجعل هذه الطبيعة "الصندوق الأسود" من الصعب فهم ما الذي تعلمته المطالبات، ولماذا يوجِّه النموذج بطريقة معينة، وكيفية تصحيحه عند حدوث أخطاء.

الاعتماد على حجم النموذج: ترتبط فاعلية طريقة الضبط الفوري الأصلية على مستوى الإدخال بحجم النموذج الأساسي. بينما يصبح تنافسيًا مع الضبط الكامل للنموذج على النماذج التي تزيد على 10 مليارات مَعلمة، فإن أداؤه يقل بشكل كبير على النماذج الأصغر والأكثر استخدامًا شيوعًا.

حالات الاستخدام

لقد ثبت أن مبادئ الضبط لفوري قابلة للتكيف بدرجة كبيرة، وتمتد إلى ما هو أبعد من تطبيقاتها الأوَّلية في معالجة اللغة الطبيعية. تُعَد هذه التقنية الآن عامل تمكين رئيسي لتخصيص النماذج بكفاءة في المجالات متعددة الوسائط ومعالجة الكلام ونماذج التعلم المتقدمة.

الضبط الفوري متعدد الوسائط (نماذج الرؤية واللغة): يُعَد الضبط الفوري أسلوبًا حساسًا لتكييف نماذج الرؤية واللغة (VLMs) المدرَّبة مسبقًا مثل CLIP مع المهام البصرية النهائية. في هذا السياق، يمكن تصميم المطالبات لطريقة واحدة أو كلتيهما.7

تطبيقات في معالجة الكلام: تم توسيع نموذج الضبط الفوري بنجاح ليشمل مجال معالجة الكلام. في هذا التطبيق، يتم ترميز عبارة كلامية غير منسقة إلى وحدات صوتية منفصلة، ويتم إرفاق مجموعة من المطالبات الليّنة القابلة للتعلم والمخصصة لكل مهمة بهذه التسلسلات. هذا الإطار موحَّد ويُتيح تكييف نموذج كلام مدرَّب مسبقًا لمجموعة متنوعة من المهام. يشمل ذلك اكتشاف الكلمات المفتاحية، وتصنيف النوايا المنطوقة، وحتى التعرُّف التلقائي على الكلام (ASR)، وكل ذلك أثناء تدريب مجموعة صغيرة فقط من المطالبات المخصصة لكل مهمة.

التعلم متعدد المهام ومتعدد اللغات: لتعزيز الكفاءة والتعميم بشكل أكبر، انتقل الباحثون إلى ما هو أبعد من تدريب المطالبات المعزولة المخصصة لمهمة واحدة. تركِّز الأساليب المتقدمة الآن على تعلُّم مطالبات مشتركة يمكن نقلها واستخدامها عبر مهام أو لغات متعددة.

  • الضبط الفوري متعدد المهام (MPT): تعمل هذه الطريقة على استخلاص المعرفة من عدة مهام مصدر وتحويلها إلى مطالبة مشترك واحدة وقابلة للنقل. يمكن بعد ذلك تكييف هذه المطالبة المشتركة بكفاءة لمهام جديدة، حيث يتطلب نسبة تصل إلى 0.035% فقط من مَعلمات النموذج لكل مهمة، مع تحقيق أداء قوي في سيناريوهات التعلم بعدد محدود من الأمثلة (few-shot).
  • الضبط الدقيق متعدد اللغات: أظهرت الدراسات على النماذج متعددة اللغات أن الضبط متعدد المهام على مجموعة من مجموعات البيانات والمطالبات الخاصة باللغة الإنجليزية فقط يمكن أن يحسِّن بشكل كبير أداء النموذج في مهام بلغات غير إنجليزية دون تدريب مسبق. توضِّح هذه الطريقة أن النموذج يتعلم قدرات حل المهام التي تكون، إلى حد ما، مستقلة عن اللغة.

الخاتمة

في مجال البحث في الذكاء الاصطناعي، برز التعلم الآلي وضبط الذكاء الاصطناعي التوليدي كطريقة أساسية لضبط نماذج الذكاء الاصطناعي بكفاءة. على عكس التدريب الكامل للنموذج الذي يغيّر جميع أوزان النموذج ويعرِّضه لخطر الإفراط في التعميم عند وجود بيانات تدريب محدودة، تركِّز هذه التقنية على تحسين مطالبات الإدخال المرفقة بالنصوص المُدخلة. من خلال عملية الأتمتة والتكرار، الهدف هو اكتشاف المطالبة الأمثل التي تُنشئ مطالبات فعَّالة لمهام محددة، وهي عملية يعتمد نجاحها غالبًا على حجم النموذج. توفِّر هذه الطريقة بديلًا قابلًا للتوسع عن إعادة التدريب المكثفة، كما تُكمل استراتيجيات أخرى مثل التوليد المعزز بالاسترجاع، ما يعزز دورها كركيزة أساسية لتخصيص نماذج الأساس.

حلول ذات صلة
®IBM® watsonx.ai

تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي في وقت قصير وباستخدام جزء بسيط من البيانات.

استكشف watsonx.ai
حلول الذكاء الاصطناعي

استفِد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها التي ستكون بجانبك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات في مجال الذكاء الاصطناعي

تساعد خدمات IBM Consulting AI في إعادة تصور طريقة عمل الشركات باستخدام حلول الذكاء الاصطناعي من أجل النهوض بأعمالها.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

باستخدام الذكاء الاصطناعي، يكشف IBM Concert عن رؤى مهمة حول عملياتك ويقدم توصيات خاصة بالتطبيق من أجل التحسين. اكتشف كيف يمكن لمنصة Concert تعزيز نمو أعمالك.

استكشف Concert® استكشف حلول أتمتة عمليات الأعمال
الحواشي

[1] Li, Z., Su, Y., & Collier, N. (2025). A Survey on Prompt Tuning. arXiv preprint arXiv:2507.06085.

[2] Lester, B., Al-Rfou, R., & Constant, N. (2021, November). The Power of Scale for Parameter-Efficient Prompt Tuning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (pp. 3045-3059).

[3]Liu, X., Ji, K., Fu, Y., Tam, W., Du, Z., Yang, Z., & Tang, J. (2022, May). P-Tuning: Prompt Tuning Can Be Comparable to Fine-tuning Across Scales and Tasks. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers) (pp. 61-68).

[4] Lei, S., Hua, Y., & Zhihao, S. (2025). Revisiting Fine-Tuning: A Survey of Parameter-Efficient Techniques for Large AI Models.

[5] Bian, J., Peng, Y., Wang, L., Huang, Y., & Xu, J. (2025). A survey on parameter-efficient fine-tuning for foundation models in federated learning. arXiv preprint arXiv:2504.21099.

[6] Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., ... & Chen, W. (2022). Lora: Low-rank adaptation of large language models. ICLR, 1(2), 3.

[7] Tian, Q., & Zhang, M. (2025). Enhancing visual-language prompt tuning through sparse knowledge-guided context optimization. Entropy, 27(3), 301.