Boosting-Algorithmen unterscheiden sich stark darin, wie sie falsch vorhergesagte Dateninstanzen bei der Erstellung eines neuen Datensatzes priorisieren. Zwei der bekanntesten Boosting-Methoden können dies veranschaulichen:
- Adaptives Boosting (AdaBoost) gewichtet Modellfehler. Das heißt, wenn eine neue Iteration eines Datensatzes für das Training des nächsten Lernenden erstellt wird, fügt AdaBoost den falsch klassifizierten Proben des vorherigen Lernenden Gewichte hinzu, wodurch der nächste Lernende diese falsch klassifizierten Proben priorisiert.
- Gradient Boosting verwendet Restfehler beim Training neuer Lernender. Anstatt falsch klassifizierte Proben zu gewichten, verwendet die Gradientenverstärkung Restfehler aus einem vorherigen Modell, um Zielvorhersagen für das nächste Modell festzulegen. Auf diese Weise wird versucht, die Fehlerlücke zu schließen, die ein Modell hinterlassen hat.19
Leider enthält sklearn keine vordefinierten Funktionen für die Implementierung von Boosting. Die Open-Source-Bibliothek Extreme Gradient Boosting (XGBoost) bietet jedoch Code für die Implementierung von Gradientenverstärkung in Python.