El Bagging y el boosting son dos tipos principales de métodos de aprendizaje por conjuntos. Como se destaca en este estudio (enlace externo a ibm.com), la principal diferencia entre estos métodos de aprendizaje es la forma en que se entrenan. En el bagging, los alumnos débiles se entrenan en paralelo, pero en el boosting, aprenden secuencialmente. Esto significa que se construye una serie de modelos y, con cada nueva iteración del modelo, aumentan los pesos de los datos mal clasificados en el modelo anterior. Esta redistribución de las ponderaciones ayuda al algoritmo a identificar los parámetros en los que debe centrarse para mejorar su rendimiento. AdaBoost, que significa "algoritmo de boosting adaptativo", es uno de los algoritmos de boosting más populares, ya que fue uno de los primeros de su tipo. Otros tipos de algoritmos de boosting incluyen XGBoost, GradientBoost y BrownBoost.
Otra diferencia entre el bagging y el boosting radica en cómo se utilizan. Por ejemplo, los métodos de bagging se utilizan normalmente en alumnos débiles que muestran una varianza alta y un sesgo bajo, mientras que los métodos de boosting se aprovechan cuando se observa una varianza baja y un sesgo alto. Aunque el bagging se puede utilizar para evitar el sobreajuste, los métodos de refuerzo pueden ser más propensos a esto (enlace externo a ibm.com), aunque realmente depende del conjunto de datos. Sin embargo, el ajuste de parámetros puede ayudar a evitar el problema.
En consecuencia, el bagging y el boosting también tienen diferentes aplicaciones en el mundo real. El bagging se empleó en procesos de aprobación de préstamos y genómica estadística, mientras que el boosting se empleó más en aplicaciones de reconocimiento de imágenes y motores de búsqueda.