Le bagging et le boosting sont deux méthodes principales d’apprentissage d’ensemble. Comme le souligne cette étude, la principale différence entre ces deux méthodes réside dans leur processus d’entraînement. Dans le bagging, les apprenants faibles sont entraînés en parallèle, tandis que dans le boosting, l’apprentissage se fait de manière séquentielle. Autrement dit, une série de modèles est construite, et à chaque nouvelle itération, les poids des données mal classifiées dans le modèle précédent sont augmentés. Cette redistribution des poids permet à l’algorithme de se concentrer sur les points de données qui nécessitent une attention particulière afin d’améliorer ses performances. AdaBoost, acronyme de « Adaptative Boosting Algorithm » (algorithme de boosting adaptatif), est l’un des algorithmes de boosting les plus utilisés, car il a été l’un des premiers à être développé. D’autres algorithmes de boosting incluent XGBoost, GradientBoost et BrownBoost.
Le bagging et le boosting diffèrent également dans la manière dont ils sont utilisés. Par exemple, les méthodes de bagging sont généralement utilisées sur les apprenants faibles qui présentent une variance élevée et un biais faible, tandis que les méthodes de boosting sont employées lorsqu’une variance faible et un biais élevé sont observés. Si le bagging peut servir à éviter le surajustement, les méthodes de boosting sont davantage sensibles à ce problème, bien que cela dépende vraiment du jeu de données. Cependant, le réglage des paramètres peut permettre d’y remédier.
Par conséquent, le bagging et le boosting ont également différentes applications dans le monde réel. Le bagging a été exploité pour les processus d’approbation des prêts et les analyses génomiques statistiques, tandis que le boosting a été davantage utilisé dans les applications de reconnaissance d’images et les moteurs de recherche.