تختلف خوارزميات التعزيز إلى حد كبير في كيفية تحديد أولويات مثيلات البيانات المتوقعة بشكل خطأ عند إنشاء مجموعة بيانات جديدة. وقد توضح اثنتان من أبرز أساليب التعزيز ذلك:
- التعزيز التكيفي (AdaBoost) يزن أخطاء النموذج. أي عند إنشاء تكرار جديد لمجموعة بيانات لتدريب المتعلم التالي، يضيف التعزيز التكيفي أوزانًا إلى عينات المتعلم السابق المصنَّفة بشكل خطأ، ما يتسبب في قيام المتعلم التالي بتحديد أولويات تلك العينات المصنَّفة بشكل خطأ.
- يستخدم التعزيز بالتدرج الأخطاء المتبقية عند تدريب نماذج التعلم الجديدة. فبدلًا من وزن العينات المصنفة بشكل خطأ، يستخدم التعزيز بالتدرج الأخطاء المتبقية من نموذج سابق لتعيين تنبؤات الهدف للنموذج التالي. وبهذه الطريقة، تحاول سد فجوة الخطأ التي خلفها أحد النماذج.19
للأسف، لا يحتوي sklearn على وظائف محددة مسبقًا لتنفيذ التعزيز. ومع ذلك، توفِّر مكتبة Extreme Gradient Boosting (اختصارًا XGBoost) مفتوحة المصدر رمزًا برمجيًا لتنفيذ التعزيز بالتدرج في Python.