A continuación se desglosa paso a paso cómo funciona el proceso de boosting de gradiente.
Inicialización: comienza utilizando un conjunto de entrenamiento para establecer una base con un modelo base de aprendizaje, a menudo un árbol de decisión, cuyas predicciones iniciales se generan aleatoriamente. Normalmente, el árbol de decisión solo contendrá un puñado de nodos hoja o nodos terminales. A menudo elegidos debido a su interpretabilidad, estos aprendices débiles o básicos sirven como un punto de partida óptimo. Esta configuración inicial allana el camino para que se desarrollen iteraciones posteriores.
Cálculo de residuos: para cada ejemplo de entrenamiento, calcule el error residual restando el valor previsto del valor real. Este paso identifica las áreas en las que es necesario mejorar las predicciones del modelo.
Refinación con regularización: después del cálculo residual y antes del entrenamiento de un nuevo modelo, tiene lugar el proceso de regularización. Esta etapa implica reducir la influencia de cada nuevo aprendiz débil integrado en el conjunto. Al calibrar cuidadosamente esta escala, se puede controlar la rapidez con la que avanza el algoritmo de boosting, lo que ayuda a prevenir el sobreajuste y a optimizar el rendimiento general.
Entrenamiento del siguiente modelo: utilice los errores residuales calculados en el paso anterior como objetivos y entrene un nuevo modelo o un aprendiz débil para predecirlos con precisión. El objetivo de este paso es corregir los errores cometidos por los modelos anteriores, refinando la predicción general.
Actualizaciones del conjunto: en esta fase, el rendimiento del conjunto actualizado (incluido el modelo recién entrenado) se suele evaluar mediante un conjunto de pruebas independiente. Si el rendimiento de este conjunto de datos reservado es satisfactorio, el conjunto puede actualizarse incorporando el nuevo aprendiz débil; de lo contrario, podría ser necesario realizar ajustes en los hiperparámetros.
Repetición: repita los pasos presentados anteriormente según sea necesario. Cada iteración se basa en el modelo base y lo refina mediante el entrenamiento de nuevos árboles, lo que mejora aún más la precisión del modelo. Si la actualización del conjunto y el modelo final son satisfactorios en comparación con el modelo de referencia basado en la precisión, vaya al siguiente paso.
Criterios de detención: detenga el proceso de boosting cuando se cumpla un criterio de detención predeterminado, como un número máximo de iteraciones, precisión objetivo o rendimientos decrecientes. Este paso ayuda a garantizar que la predicción final del modelo logre el equilibrio esperado entre complejidad y rendimiento.