Voici comment le gradient boosting fonctionne étape par étape.
Initialisation : commencez par utiliser un ensemble d’entraînement pour établir une fondation avec un modèle apprenant de base, souvent un arbre de décision, dont les prédictions initiales sont générées aléatoirement. En règle générale, l’arbre de décision ne contient qu’une poignée de nœuds foliaires ou de nœuds terminaux. Souvent choisis en raison de leur interprétabilité, ces apprenants faibles ou de base sont un point de départ optimal. Cette configuration initiale ouvre la voie aux itérations ultérieures.
Calcul des valeurs résiduelles : pour chaque exemple d’entraînement, calculez l’erreur résiduelle en soustrayant la valeur prédite de la valeur réelle. Cette étape permet d’identifier les aspects des prédictions du modèle qui doivent être améliorés.
Affinage avec régularisation : après le calcul résiduel et avant l’entraînement d’un nouveau modèle, le processus de régularisation a lieu. Cette étape consiste à réduire l’influence de chaque nouvel apprenant faible intégré dans l’ensemble. En calibrant soigneusement cette échelle, on peut contrôler la rapidité de progression de l’algorithme de boosting, ce qui permet de prévenir le surapprentissage et d’optimiser la performance globale.
Entraînement du modèle suivant : utilisez les erreurs résiduelles calculées à l’étape précédente comme cibles, et entraînez un nouveau modèle ou un apprenant faible à les prédire avec précision. Cette étape consiste à corriger les erreurs commises par les modèles précédents afin d’affiner la prédiction globale.
Mises à jour de l’ensemble : lors de cette étape, la performance de l’ensemble mis à jour (y compris le modèle nouvellement entraîné) est généralement évaluée à l’aide d’un ensemble de test distinct. Si la performance de ce jeu de données est satisfaisante, l’ensemble peut être mis à jour en y incorporant le nouvel apprenant faible ; dans le cas contraire, il faudra probablement ajuster les hyperparamètres.
Répétition : répétez les étapes présentées précédemment si nécessaire. Chaque itération s’appuie sur le modèle de base et l’affine en entraînant de nouveaux arbres, pour améliorer davantage la précision du modèle. Si la mise à jour de l’ensemble et le modèle final satisfont au critère de précision du modèle de référence, passez à l’étape suivante.
Critères d’arrêt : arrêtez le processus de boosting lorsque le critère prédéterminé est atteint (par exemple, le nombre maximal d’itérations, la précision de la cible ou des rendements décroissants). Cette étape permet de s’assurer que la prédiction finale du modèle atteint l’équilibre attendu entre complexité et performance.