Bagging und Boosting sind zwei Hauptarten von Ensemble-Learning-Methoden. Wie in dieser Studie hervorgehoben wird, besteht der Hauptunterschied zwischen diesen Lernmethoden in der Art, wie sie trainiert werden. Beim Bagging werden schwache Lerner parallel trainiert, beim Boosting lernen sie jedoch sequentiell. Das bedeutet, dass eine Reihe von Modellen erstellt wird und mit jeder neuen Modell-Iteration die Gewichtung der falsch klassifizierten Daten im vorherigen Modell erhöht wird. Anhand dieser Umverteilung der Gewichtungen kann der Algorithmus die wichtigsten Parameter ermitteln, mit denen seine Leistung verbessert werden kann. AdaBoost, was für „adaptiver Boosting-Algorithmus“ steht, ist einer der beliebtesten Boosting-Algorithmen, da er einer der ersten seiner Art war. Weitere Arten von Boosting-Algorithmen sind XGBoost, GradientBoost und BrownBoost.
Ein weiterer Unterschied zwischen Bagging und Boosting ist, wie sie eingesetzt werden. So werden Bagging-Methoden in der Regel bei schwachen Lernern verwendet, die eine hohe Varianz und eine geringe Verzerrung aufweisen, während Boosting-Methoden eingesetzt werden, wenn eine geringe Varianz und eine hohe Verzerrung beobachtet werden. Bagging kann zwar verwendet werden, um Überanpassungen zu vermeiden, aber Boosting-Methoden können dafür anfälliger sein, obwohl es wirklich vom Datensatz abhängt. Eine Parameteroptimierung kann jedoch zur Vermeidung des Problems beitragen.
Infolgedessen haben Bagging und Boosting auch unterschiedliche Anwendungen in der realen Welt. Bagging wurde für Kreditvergabeverfahren und statistische Genomik eingesetzt, während Boosting eher in Bilderkennungsanwendungen und Suchmaschinen verwendet wurde.