El bagging, también conocido como agregación de bootstrap, es el método de aprendizaje por conjuntos que se utiliza habitualmente para reducir la varianza en un conjunto de datos ruidoso.
En el bagging, se selecciona una muestra aleatoria de datos de un conjunto de entrenamiento con reemplazo, lo que significa que los puntos de datos individuales pueden elegirse más de una vez. Tras generar varias muestras de datos, estos modelos débiles se entrenan de forma independiente. Según el tipo de tarea (regresión o clasificación, por ejemplo), el promedio o la mayoría de esas predicciones arrojan una estimación más precisa.
Como nota, el algoritmo de bosque aleatorio se considera una extensión del método bagging, que utiliza tanto bagging como la aleatoriedad de características para crear un bosque no correlacionado de árboles de decisión.
El aprendizaje conjunto refuerza la idea de la "sabiduría de las multitudes", que sugiere que la toma de decisiones de un grupo más amplio de personas suele ser mejor que la de un experto individual. Del mismo modo, el aprendizaje conjunto se refiere a un grupo (o conjunto) de aprendices base, o modelos, que trabajan de forma colectiva para lograr una mejor predicción final.
Un modelo único, también conocido como modelo básico o de aprendizaje débil, puede no funcionar bien individualmente debido a la alta varianza o al alto sesgo. Sin embargo, cuando se agregan los aprendices débiles, pueden formar un aprendiz fuerte, ya que su combinación reduce el sesgo o la varianza, lo que produce un mejor rendimiento del modelo.
Los métodos de conjuntos utilizan con frecuencia árboles de decisión como ilustración. Este algoritmo puede ser propenso a sobreajuste, mostrando una alta varianza y un bajo sesgo, cuando no ha sido podado. A la inversa, también puede prestarse a un infraajuste, con una varianza baja y un sesgo alto, cuando es muy pequeño, como un tocón de decisión, que es un árbol de decisión con un nivel.
Recuerde que cuando un algoritmo se ajusta en exceso o en defecto a su conjunto de entrenamiento, no puede generalizar bien a nuevos conjuntos de datos, por lo que los métodos de conjuntos se utilizan para contrarrestar este comportamiento y permitir la generalización del modelo a nuevos conjuntos de datos. Aunque los árboles de decisión pueden presentar una varianza o un sesgo elevados, cabe señalar que no es la única técnica de modelado que aprovecha el aprendizaje por conjuntos para encontrar el punto óptimo dentro del equilibrio sesgo-varianza.
El bagging y el boosting son dos tipos principales de métodos de aprendizaje por conjuntos. Como se destaca en este estudio, la principal diferencia entre estos métodos de aprendizaje es cómo se entrenan.
En el bagging, los alumnos débiles se entrenan en paralelo, pero en el boosting, aprenden secuencialmente. Esto significa que se construye una serie de modelos y, con cada nueva iteración del modelo, se incrementan las ponderaciones de los datos mal clasificados en el modelo anterior.
Esta redistribución de las ponderaciones ayuda al algoritmo a identificar los parámetros en los que debe centrarse para mejorar su rendimiento. AdaBoost, que significa "algoritmo de boosting adaptativo", es uno de los algoritmos de boosting más populares, ya que fue uno de los primeros de su tipo. Otros tipos de algoritmos de boosting son XGBoost, GradientBoost y BrownBoost.
Otra diferencia en la que se distinguen el bagging y el boosting son los escenarios en los que se utilizan. Por ejemplo, los métodos de bagging se utilizan normalmente en aprendices débiles que muestran una varianza alta y un sesgo bajo, mientras que los métodos de boosting se utilizan cuando se observa una varianza baja y un sesgo alto.
En 1996, Leo Breiman introdujo el algoritmo de bagging, que consta de tres pasos básicos:
El método bagging presenta varias ventajas y retos clave cuando se utiliza para problemas de clasificación o regresión. Los beneficios clave del bagging incluyen:
Los retos clave del bagging incluyen:
La técnica de bagging se utiliza en muchos sectores, proporcionando información tanto sobre el valor real como sobre perspectivas interesantes, como en los GRAMMY Debates with Watson. Los casos de uso clave incluyen: