الصفحة الرئيسية الموضوعات التعزيز ما هو التعزيز؟
اكتشف حل التعزيز من IBM سجل للتعرف على تحديثات الذكاء الاصطناعي
رسم توضيحي يحتوي على مجموعة من الرموز التوضيحية على شكل سحب، ومخطط دائري، ورسم بياني من الرموز التوضيحية
ما هو التعزيز؟

يعد التعزيز أسلوبًا من أساليب التعلم التجميعي، يتم فيه جمع مجموعة من نماذج التعلم الضعيفة وضمها في نموذج تعلم قوي لتقليل أخطاء التدريب. حيث يؤدي تعزيز الخوارزميات إلى تحسين القدرة التنبؤية لمبادرات التنقيب في البيانات الخاصة بك.

في عملية التعزيز، يتم اختيار عينة عشوائية من البيانات، وتزويدها بنموذج ثم يتم تدريبه بشكل تسلسلي—أي أن كل نموذج يحاول التعويض عن نقاط الضعف الموجودة في سابقه. ومع مع كل تكرار، يتم دمج القواعد الضعيفة من كل مصنِّف فردي لتكوين قاعدة تنبؤ واحدة قوية.

التعلم الجماعي

يمنح التعلم التجميعي مصداقية لفكرة «الحِكمة الجماعية»، مما يشير إلى أن عملية اتخاذ القرار بتعاون مجموعة أكبر من الأشخاص عادةً ما يكون أفضل من القرار الذي يتخذه شخص واحد ولو كان خبيرًا. وبالمثل، يشير التعلم التجميعي إلى مجموعة من المتعلمين الأساسيين، أو النماذج، التي تعمل بشكل جماعي لتحقيق تنبؤ نهائي أفضل. قد لا يؤدي النموذج الواحد، المعروف أيضًا باسم نموذج التعلم الأساسي أو نموذج التعلم الضعيف، أداءً جيدًا بشكل فردي بسبب التباين العالي أو التحيز العالي. ومع ذلك، عندما يتم تجميع نماذج التعلم الضعيفة، يمكن أن يشكلوا نماذج تعلم قوية، حيث يقلل تجميعها من التحيز أو التباين، مما يؤدي إلى أداء أفضل للنموذج. 

غالبًا ما يتم توضيح طرق المجموعة باستخدام أشجار القرار لأن هذه الخوارزمية قد تكون عرضة لفرط التخصيص (تباين مرتفع وتحيز منخفض) عندما لم يتم تهذيبها، وقد تكون عرضة أيضًا لنقص التخصيص (تباين منخفض وتحيز مرتفع) عندما تكون صغيرة جدًا، مثل جذع القرار، وهو شجرة قرار بمستوى واحد. تذكّر أنه عندما تفرط الخوارزمية في تخصيص أو عدم تخصيص مجموعات بيانات التدريب الخاصة بها، لا يمكنها التعميم بشكل جيد على مجموعات البيانات الجديدة، لذا تُستخدم طرق التجميع لمواجهة هذا السلوك للسماح بتعميم النموذج على مجموعات البيانات الجديدة. وفي حين أن أشجار القرار يمكن أن تُظهر تباينًا كبيرًا أو تحيزًا كبيرًا، تجدر الإشارة إلى أنها ليست تقنية النمذجة الوحيدة التي تستفيد من التعلم الجماعي للعثور على "النقطة المثالية" في مفاضلة التحيز والتباين.

التعبئة مقابل التعزيز

يعد كل من التعبئة (تجميع بوتستراب) والتعزيز نوعين رئيسيين من أساليب التعلم التجميعي. كما هو موضح في هذه الدراسة (يوجد الرابط خارج موقع ibm.com)، نجد أن الاختلاف الرئيسي بين طريقتي التعلم هاتين هو الأسلوب الذي يتم تدريبهما به. في عملية التعبئة، يتم تدريب نماذج التعلم الضعيفة بالتوازي، بينما في عملية التعزيز، تتعلم النماذج بالتتابع. وهذا يعني أنه يتم إنشاء سلسلة من النماذج، ومع كل تكرار لنموذج جديد، تتم زيادة الأوزان الترجيحية للبيانات التي تم تصنيفها بشكل خطأ في النموذج السابق. وإعادة توزيع الأوزان الترجيحية مما يساعد هذه الخوارزمية على تحديد المعلمات التي تحتاج إلى التركيز عليها لتحسين أدائها. تُعد خوارزمية AdaBoost، وتعني "خوارزمية التعزيز التكيّفي"، واحدة من أكثر خوارزميات التعزيز شيوعًا لأنها كانت الأولى من نوعها. تشمل الأنواع الأخرى من خوارزميات التعزيز XGBoost وGradientBoost وBrownBoost. 

هناك فرق آخر بين طريقة التعبئة وطريقة التعزيز وهو كيفية استخدامهما. على سبيل المثال، تُستخدم طرق التعبئة عادةً على المتعلمين الضعفاء الذين يظهرون تباينًا كبيرًا وتحيزًا منخفضًا، بينما تُستخدم طرق التعزيز عند ملاحظة تباين منخفض وتحيز كبير. في حين يمكن استخدام التعبئة لتجنب فرط التخصيص، فإن طرق التعزيز قد تكون أكثر عرضة لهذا (يوجد الرابط خارج ibm.com) رغم أن الأمر يعتمد فعلاً على مجموعة البيانات. ومع ذلك، يمكن أن يساعد ضبط المعلمة في تجنب المشكلة. 

ونتيجة لذلك، فإن التعبئة والتعزيز لهما تطبيقات مختلفة في العالم الحقيقي أيضًا. تمت الاستفادة من عملية التعبئة في عمليات الموافقة على القروض وعلم الجينوم الإحصائي، بينما تم استخدام التعزيز بشكل أكبر في تطبيقات التعرف على الصور ومحركات البحث.  

كيفية اختيار نموذج أساس الذكاء الاصطناعي المناسب

استخدم إطار عمل تحديد النماذج هذا لاختيار النموذج الأنسب مع تحقيق التوازن بين متطلبات الأداء في مؤسستك، واحتياجات التكلفة، والنشر، والمخاطر.

محتوى ذو صلة

التسجيل للحصول على كتاب إلكتروني عن مخازن بيانات الذكاء الاصطناعي

أنواع التعزيز

تركز أساليب التعزيز على الجمع بشكل متكرر بين نماذج التعلم الضعيفة لبناء نموذج تعلم قوي يمكنه التنبؤ بالنتائج بدقة أكبر. كتذكير، يستطيع نموذج التعلم الضعيف تصنيف البيانات بشكل أفضل قليلاً من التخمين العشوائي. حيث يوفر هذا النهج نتائج قوية لمشاكل التنبؤ، بل يمكنه التفوق على الشبكات العصبية وآلات دعم المتجهات لمهام مثل استرجاع الصور (يوجد الرابط خارج ibm.com).  

تختلف خوارزميات التعزيز في كيفية إنشاء وتجميع نماذج التعلم الضعيفة أثناء العملية التسلسلية. وهناك ثلاثة أنواع شائعة من طرق التعزيز، منها ما يلي: 

  • التعزيز التكيّفي أو AdaBoost: يعود الفضل في إنشاء خوارزمية AdaBoost إلى علماء الحاسوب Yoav Freund و Robert Schapire. وتعمل هذه الطريقة بشكل تكراري، حيث تحدد نقاط البيانات المصنَّفة تصنيفًا غير صحيح وتعدِّل أوزانها الترجيحية لتقليل خطأ التدريب. ثم يستمر النموذج في التحسين بطريقة تسلسلية حتى ينتج لنا أقوى متغير توقع.  
  • التعزيز التدريجي:إكمالاً لأعمال عالِم الإحصاء Leo Breiman، قام أستاذ الإحصاء Jerome H. Friedman بتطوير التعزيز التدريجي، والذي يعمل عن طريق إضافة متغير توقعين بشكل تسلسلي إلى مجموعة مع تصحيح كل منهما لأخطاء سابقه. ومع ذلك، بدلاً من تغيير الأوزان الترجيحية لنقاط البيانات مثل AdaBoost، نجد أن التعزيز التدريجي يدرِّب على الأخطاء المتبقية من متغير التوقع السابق. يتم استخدام الاسم، تعزيز التدرج، لأنه يجمع بين خوارزمية النزول الاشتقاقي وطريقة التعزيز.  
  • التعزيز التدرجي الشديد أو XGBoost:  يعد XGBoost تنفيذًا للتعزيز التدرجي المصمم لتحقيق السرعة الحوسبية وقابلية التوسع. يستفيد XGBoost من الأنوية العديدة في وحدة المعالجة المركزية، مما يسمح بحدوث التعلم بالتوازي أثناء التدريب.  

مزايا وعقبات التعزيز

هناك عدد من المزايا والعقبات الرئيسية لطريقة التعزيز عند استخدامها في حل مشاكل التصنيف أو الانحدار. 

فيما يلي بعض مزايا التعزيز:  

  • سهولة التنفيذ:يمكن استخدام التعزيز مع العديد من خيارات ضبط المعلمات الفائقة لتحسين التخصيص. حيث لا حاجة إلى معالجة مسبقة للبيانات، كما أن الخوارزميات المعزَّزة تحتوي على إجراءات مضمنة للتعامل مع البيانات المفقودة. في Python، تتوفر مكتبة scikit-learn الخاصة بأساليب المجموعة (تُعرف أيضًا باسم sklearn.ensemble) والتي تجعل من السهل تنفيذ طرق التعزيز الشائعة، وتشمل AdaBoost وXGBoost ونحوهما.  
  • تقليل التحيز: تعمل خوارزميات التعزيز على الجمع بين العديد من نماذج التعلم الضعيفة بطريقة متسلسلة، مما يؤدي إلى تحسين الملاحظات بشكل متكرر. وهذا النهج يساعد على تقليل التحيز العالي، الذي يظهر بشكل شائع في أشجار القرار الضحلة ونماذج الانحدار اللوجستي. 
  • الكفاءة الحاسوبية:لأن خوارزميات التعزيز تختار فقط الميزات التي تزيد من قوتها التنبؤية أثناء التدريب، فإن التعزيز يساعد على تقليل الأبعاد بالإضافة إلى زيادة الكفاءة الحاسوبية.  

فيما يلي بعض التحديات الرئيسية التي تواجه التعزيز:  

  •  فرط التخصيص: هناك بعض الخلاف في البحث (يوجد الرابط خارج موقع ibm.com) حول إذا ما كان التعزيز قادرًا على أن يساعد على تقليل فرط التخصيص أو تفاقمه أم لا. وسوف ندرج هذا ضمن التحديات لأنه في الحالات التي يحدث فيها، لا يمكن تعميم التنبؤات على مجموعات البيانات الجديدة.  
  •  الحوسبة المكثفة:من الصعب توسيع نطاق التدريب المتسلسل في التعزيز. ولأن كل مقدِّر مبني على سابقاته، فقد تكون نماذج التعزيز مكلفة من الناحية الحاسوبية، رغم أن XGBoost تسعى إلى معالجة مشكلات قابلية التوسع التي تظهر في أنواع أخرى من طرق التعزيز. وقد تكون خوارزميات التعزيز أبطأ في التدريب مقارنة بالتعبئة حيث يمكن لعدد كبير من المعلمات أيضًا التأثير على سلوك النموذج. 
تطبيقات التعزيز

تعتبر خوارزميات التعزيز مناسبة تمامًا لمشاريع الذكاء الاصطناعي في مجموعة كبيرة من الصناعات، تشمل ما يلي:  

  • الرعاية الصحية: يتم استخدام التعزيز لتقليل الأخطاء في تنبؤات البيانات الطبية، كالتنبؤ مثلاً بعوامل خطر أمراض القلب والأوعية الدموية ومعدلات بقاء مرضى السرطان على قيد الحياة. على سبيل المثال، أظهر البحث (الرابط موجود خارج موقع ibm.com) أن طرق التجميع تعمل على تحسين الدقة بشكل كبير في تحديد المرضى الذين قد يستفيدون من العلاج الوقائي لأمراض القلب والأوعية الدموية، مع تجنب العلاج غير الضروري للآخرين. وبالمثل، وجدت دراسة أخرى (الرابط موجود خارج موقع ibm.com) أن تطبيق التعزيز على منصات علم الجينوم المتعددة يمكن أن يحسِّن التنبؤ بمدة بقاء مرضى السرطان على قيد الحياة. 

  • تكنولوجيا المعلومات: تُستخدم أشجار الانحدار التدريجي المعزَّزة في محركات البحث لترتيب الصفحات، بينما تُستخدم خوارزمية التعزيز فيولا-جونز لاسترجاع الصور. كما ذكر Cornell (يوجد الرابط خارج ibm.com)، تسمح التصنيفات المعززة بإيقاف العمليات الحاسوبية في وقت أقرب عندما يكون من الواضح الاتجاه الذي يتجه إليه التنبؤ. وهذا يعني أن محرك البحث يمكنه إيقاف تقييم الصفحات ذات التصنيف الأدنى، في حين أن ماسحات الصور الضوئية سوف تنظر فقط في الصور التي تحتوي بالفعل على الكائن المطلوب.   

  • التمويل:يتم استخدام التعزيز مع نماذج التعلم العميق لأتمتة المهام الحساسة، كاكتشاف الاحتيال وتحليل الأسعار وغير ذلك الكثير. على سبيل المثال، تعمل طرق التعزيز المستخدمة في اكتشاف الاحتيال في بطاقات الائتمان وتحليل أسعار المنتجات المالية (يوجد الرابط خارج موقع ibm.com) على تحسين دقة تحليل مجموعات البيانات الضخمة لتقليل الخسائر المالية لأدنى حد ممكن.  

حلول ذات صلة
IBM SPSS Modeler

حقِّق عائد استثمار وقم بتسريع الوقت المناسب للقيمة باستخدام أداة سهلة الاستخدام لعلم البيانات بخاصية السحب والوضع.

استكشف IBM SPSS Modeler
حلول  ®IBM Cloud

هجينة. مفتوحة. مرنة. منصتك وشريكك في التحول الرقمي.

استكشف الحلول السحابية
حلول ®IBM Cloud Pak

برنامج سحابي هجين مدعوم بالذكاء الاصطناعي.

استكشف حلول Cloud Pak
الموارد أبحاث IBM: التعزيز الكمّي

توضح هذه الورقة كيف يمكن للأساليب الكمّية تحسين التعقيد الزمني لـ AdaBoost الكلاسيكي.

SnapBoost: آلة تعزيز غير متجانس

تقوم شركة IBM Research بدراسة آلة نيوتن للتعزيز غير المتجانس (HNBM) والتي قد تختلف فيها فئة الفرضية الأساسية بين تكرارات التعزيز.

اتخِذ الخطوة التالية

يُعَد IBM SPSS Modeler أحد حلول علم البيانات المرئية والتعلم الآلي (ML)، وهو مصمَّم لعرض النماذج والأنماط المُخفاة في البيانات من خلال نهج إنشاء الفرضيات بأسلوب من أسفل إلى أعلى. وتستخدمه المؤسسات في جميع أنحاء العالم لإعداد البيانات واكتشافها، وفي التحليلات التنبؤية، وإدارة النماذج ونشرها، والتعلُّم الآلي (ML) لتحقيق الربح المادي من أصول البيانات.

استكشف SPSS Modeler جرّب مجاناً لمدة 30 يوماً