El bagging y el boosting son dos tipos principales de métodos de aprendizaje por conjuntos. Como se destaca en este estudio, la principal diferencia entre estos métodos de aprendizaje es la forma en que se entrenan. En bagging, los aprendices débiles se capacitan en paralelo, pero en boosting, aprenden secuencialmente. Esto significa que se construye una serie de modelos y con cada nueva iteración del modelo, se incrementan los pesos de los datos mal clasificados en el modelo anterior. Esta redistribución de pesos ayuda al algoritmo a identificar los parámetros en los que debe centrarse para mejorar su rendimiento. AdaBoost, que significa “algoritmo de refuerzo adaptativo”, es uno de los algoritmos de refuerzo más populares, ya que fue uno de los primeros de su tipo. Otros tipos de algoritmos de impulso incluyen XGBoost, GradientBoost y BrownBoost.
Otra diferencia entre bagging y boosting es cómo se utilizan. Por ejemplo, los métodos de embolsado se utilizan normalmente en aprendices débiles que muestran una alta varianza y un sesgo bajo, mientras que los métodos de refuerzo se aprovechan cuando se observa una varianza baja y un sesgo alto. Si bien el embolsado se puede utilizar para evitar el sobreajuste, los métodos de impulso pueden ser más propensos a esto, aunque realmente depende del conjunto de datos. Sin embargo, el ajuste de parámetros puede ayudar a evitar el problema.
En consecuencia, el bagging y el boosting también tienen diferentes aplicaciones en el mundo real. El bagging se empleó en procesos de aprobación de préstamos y genómica estadística, mientras que el boosting se empleó más en aplicaciones de reconocimiento de imágenes y motores de búsqueda.