بينما أصبحت النماذج اللغوية الكبيرة (LLMs) جيدة بشكل استثنائي في التعلّم من كميات هائلة من البيانات، فإن تقنية جديدة تقوم بعكس ذلك أثارت ضجة لدى شركات التقنية: إلغاء التعلّم الآلي.
ويُعلِّم هذا النهج الجديد نسبيًا النماذج اللغوية الكبيرة (LLMs) نسيان البيانات الحساسة أو غير الموثوقة أو المحمية بحقوق النشر أو "إلغاء تعلّمها". فهو أسرع من إعادة تدريب النماذج من الصفر، كما يزيل بأثرٍ رجعيّ البيانات أو السلوكيات المحددة غير المرغوب فيها.
ليس من المستغرب إذن أن يسارع عمالقة التقنية مثل IBM وGoogle وMicrosoft إلى تجهيز تقنيات إلغاء التعلّم الآلي للاستخدام على نطاق واسع. ومع ذلك، فإن التركيز المتزايد على إلغاء التعلّم يسلّط الضوء أيضًا على بعض العقبات المرتبطة بهذه التقنية: نماذج تنسى أكثر مما ينبغي، ونقص الأدوات المعيارية على مستوى القطاع لتقييم مدى فعالية إلغاء التعلّم.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
تتعلّم النماذج اللغوية الكبيرة (LLMs)، المُدرَّبة على تيرابايتات من البيانات، "اتخاذ" القرارات وإصدار التنبؤات من دون برمجتها صراحةً للقيام بذلك. هذا الفرع من الذكاء الاصطناعي، المعروف باسم التعلم الآلي، ازداد شيوعًا مع تقليد خوارزميات التعلم الآلي لطريقة تعلّم البشر، مما أدّى تدريجيًا إلى تحسين دقّة المحتوى الذي تولّده.
ولكن المزيد من البيانات يعني أيضًا المزيد من المشكلات. وكما تقول Nathalie Baracaldo، كبيرة الباحثين في IBM: "أي بيانات يتعلّمها النموذج — الجيدة والسيئة — ستبقى."
وهكذا، يمكن للنماذج الأكبر حجمًا من أي وقت مضى أن تولِّد مزيدًا من اللغة السامة والبغيضة، وأن تحتوي على بيانات حساسة لا تتماشى مع معايير الأمن السيبراني. لماذا؟ يتم تدريب هذه النماذج على بيانات غير منظمة وغير موثوقٍ بها من الإنترنت. حتى مع وجود محاولات صارمة لتصفية البيانات، ومواءمة النماذج لتحديد الأسئلة التي لا ينبغي الإجابة عنها وما الإجابات التي ينبغي تقديمها، واستخدام حواجز حماية أخرى لفحص مخرجات النموذج، لا يزال السلوك غير المرغوب فيه والبرمجيات الضارة والمواد السامة والمحتوى المحمي بحقوق الطبع والنشر يتسلل.
إعادة تدريب هذه النماذج لإزالة البيانات غير المرغوب فيها يستغرق شهورًا ويتطلّب ملايين الدولارات. وعلاوة على ذلك، عندما تكون النماذج مفتوحة المصدر، تنتقل أي ثغرات في النموذج الأساسي إلى العديد من النماذج والتطبيقات الأخرى.
وتهدف أساليب إلغاء التعلّم إلى التخفيف من هذه المشكلات. من خلال تحديد أهداف إلغاء التعلّم، مثل نقاط بيانات محددة تتضمّن محتوى يحتوي على لغة ضارّة أو غير أخلاقية أو محمية بحقوق الطبع والنشر أو موجِّهات نصية غير مرغوب فيها، تزيل خوارزميات إلغاء التعلّم تأثير المحتوى المستهدف بكفاءة.
استخدم فريق من الباحثين في Microsoft هذا النهج في إلغاء التعلّم لمعرفة ما إذا كان بإمكانهم جعل نموذج Llama 2-7B من Meta ينسى المواد المحمية بحقوق الطبع والنشر من سلسلة Harry Potter، التي جرى تدريبه عليها استنادًا إلى بيانات من الإنترنت. قبل تطبيق إلغاء التعلّم، عندما أدخل الباحثون موجِّهًا مثل “Who is Harry Potter?”، ردّ النموذج بالآتي: “Harry Potter is the main protagonist in J.K. Rowling’s series of fantasy novels.”
وبعد تحسين النموذج وضبطه لكي “يلغي تعلّم” المواد المحمية بحقوق الطبع والنشر، أصبح يجيب Harry Potter is a British actor, writer, and director…”.
وأوضح الباحثان Ronen Elden وMark Russinovich في منشور على مدونة أن “النموذج، في جوهر الأمر، يَنسى المحتوى الأصلي في كل مرة يواجه سياقًا مرتبطًا بالبيانات المستهدفة”. شارك الفريق النموذج على منصة Hugging Face حتى يتمكّن مجتمع الذكاء الاصطناعي من استكشاف تقنيات إلغاء التعلّم وتجربتها أيضًا.
وبالإضافة إلى إزالة المواد المحمية بحقوق الطبع والنشر، تُعد إزالة المواد الحسّاسة لحماية خصوصية الأفراد حالة استخدام أخرى ذات أهمية بالغة. ويعمل فريق، بقيادة Radu Marculescu في جامعة Texas at Austin وبالتعاون مع متخصصي الذكاء الاصطناعي في J.P. Morgan Chase، على إلغاء التعلّم الآلي في النماذج التوليدية من صورة إلى صورة (image-to-image). وفي ورقة بحثية حديثة، أظهروا أنهم تمكنوا من إزالة العناصر غير المرغوب فيها من الصور (المعروفة باسم “مجموعة النسيان” forget set) من دون الإخلال بأداء مجموعة الصور ككل.
وقال Professor Marculescu إن هذه التقنية قد تكون مفيدة في سيناريوهات مثل مسوحات الطائرات بدون طيار للعقارات، على سبيل المثال. “إذا كانت هناك وجوه لأطفال مرئية بوضوح، يمكنك طمسها لحماية خصوصيتهم.”
Google منشغلة أيضًا بمعالجة مسألة إلغاء التعلّم داخل مجتمع المطورين مفتوح المصدر الأوسع نطاقًا. في يونيو 2023، أطلقت Google أول تحدٍّ في مجال إلغاء التعلّم الآلي. شملت المنافسة أداة للتنبؤ بالعمر تمّ تدريبها على صور الوجوه. وبعد انتهاء التدريب، كان لا بد من “نسيان” مجموعة فرعية معيّنة من صور التدريب لحماية خصوصية أو حقوق الأفراد المعنيين.
ورغم أن النتائج ليست مثالية بعد، فإن النتائج الأولية من الفرق المختلفة تبدو واعدة. على سبيل المثال، باستخدام إلغاء التعلّم الآلي على نموذج Llama، تمكّن فريق Baracaldo في IBM من تقليل درجة السميّة من 15.4% إلى 4.8% من دون التأثير في دقّة المهام الأخرى التي أدّاها النموذج اللغوي الكبير (LLM). وبدلًا من أن تستغرق إعادة تدريب النموذج أشهُرًا، فضلًا عن التكلفة العالية، استغرقت عملية إلغاء التعلّم 224 ثانية فقط.
فلماذا لا يُستخدم إلغاء التعلّم الآلي على نطاق واسع؟
توضح Baracaldo: "لا تزال أساليب إلغاء التعلّم في مهدها، ولم تصل بعد إلى مستوى التوسّع الجيّد."
أول تحدٍّ كبير هو ما يُسمى "النسيان الكارثي"، أي أن النموذج ينسى أكثر مما يريده الباحثون، بحيث لا يعود قادرًا على أداء المهام الأساسية التي صُمِّم من أجلها.
طوّر فريق IBM إطار عمل جديدًا لتحسين أداء النماذج بعد التدريب. وباستخدام نهج يصفونه بأنه split-unlearn-then-merge أو SPUNGE، تمكّن الفريق من التخلّص من سلوكيات غير مرغوب فيها مثل السميّة، ومعرفة خطِرة مثل معلومات الأمن البيولوجي أو مخاطر الأمن الإلكتروني، مع الحفاظ على القدرات العامة للنماذج.
ويشير الباحثون إلى أن تطوير أدوات تقييم شاملة وموثوقة لقياس فعالية جهود إلغاء التعلّم لا يزال تحدّيًا قائمًا يحتاج إلى حل.
في الوقت الذي لا تزال فيه تقنيات إلغاء التعلّم في بداياتها، يكثّف الباحثون جهودهم نظرًا لتنوّع حالات الاستخدام المحتملة، والصناعات، والمناطق الجغرافية التي يمكن أن تثبت فائدتها فيها.
في أوروبا، على سبيل المثال، تحمي اللائحة العامة لحماية البيانات في الاتحاد الأوروبي "حق الأفراد في أن يُنسوا". وإذا اختار أحد الأفراد حذف بياناته، يمكن لإلغاء التعلّم الآلي أن يساعد الشركات على الالتزام بهذا التشريع وإزالة كل البيانات ذات الصلة من أنظمتها. وبعيدًا عن جوانب الأمن والخصوصية، يمكن أن يكون لإلغاء التعلّم الآلي دور مفيد في أي موقف يلزم فيه إضافة البيانات أو حذفها، مثلًا عند انتهاء صلاحية التراخيص أو عندما يغادر العملاء مؤسسة مالية كبرى أو اتحادًا من المستشفيات.
تقول Baracaldo: "ما أحبه في إلغاء التعلّم هو أننا نستطيع الاستمرار في استخدام جميع خطوط الدفاع الأخرى لدينا، مثل تصفية البيانات. لكن يمكننا أيضًا "ترقيع" النموذج أو تعديله كلما لاحظنا وجود خلل ما، لإزالة كل ما هو غير مرغوب فيه".
تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.