Qu’est-ce que le boosting ?

Qu’est-ce que le boosting ?

En machine learning, le boosting est une méthode d’apprentissage d’ensemble qui combine un ensemble d’apprenants faibles pour obtenir un apprenant fort et minimiser les erreurs d’entraînement. Les algorithmes de boosting améliorent le pouvoir prédictif de l’identification d’images, d’objets et de caractéristiques, l’analyse des sentiments, le data mining et plus encore.

Lors du boosting, un échantillon aléatoire de données est sélectionné, ajusté avec un modèle, puis entraîné de manière séquentielle. En d’autres termes, chaque modèle tente de compenser les faiblesses de son prédécesseur. À chaque itération, les règles faibles de chaque classificateur sont combinées pour former une seule règle de prédiction forte.

En savoir plus sur l’apprentissage d’ensemble

L’apprentissage d’ensemble donne du crédit au concept de « sagesse des foules » selon lequel le processus décisionnel d’un groupe plus large de personnes serait plus efficace que celui d’un expert individuel. De même, l’apprentissage d’ensemble fait référence à un groupe (ou ensemble) d’apprenants de base, ou de modèles, qui travaillent collectivement à l’obtention d’une meilleure prédiction finale. Un modèle individuel, également appelé modèle de base ou apprenant faible, peut présenter des performances médiocres en raison d’une variance ou d’un biais élevé. Cependant, lorsque ces apprenants faibles sont agrégés, ils forment un apprenant fort, car leur combinaison réduit le biais ou la variance, améliorant ainsi les performances globales du modèle.

Les méthodes d’ensemble sont fréquemment illustrées à l’aide d’arbres de décision, car cet algorithme peut être sujet au surajustement (variance élevée et biais faible) lorsqu’il n’a pas été élagué, et peut aussi se prêter à un sous-ajustement (variance faible et biais élevé) lorsqu’il est très petit, comme une souche de décision, qui est un arbre de décision à un niveau. N’oubliez pas que lorsqu’un algorithme s’adapte trop ou pas assez à son ensemble de données d’entraînement, il ne peut pas correctement se généraliser à de nouveaux ensemble de données. C’est pourquoi on utilise des méthodes d’ensemble pour contrer ce comportement et permettre la généralisation du modèle à de nouveaux ensembles de données. Bien que les arbres de décision puissent présenter un biais ou une variance élevée, ils ne sont pas la seule technique qui profite de l'apprentissage ensembliste pour trouver le juste équilibre dans le compromis biais-variance.

Les dernières tendances en matière d’IA, vues par des experts

Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.

Merci ! Vous êtes abonné(e).

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

Bagging et boosting

Le bagging et le boosting sont deux méthodes principales d’apprentissage d’ensemble. Comme le souligne cette étude, la principale différence entre ces deux méthodes réside dans leur processus d’entraînement. Dans le bagging, les apprenants faibles sont entraînés en parallèle, tandis que dans le boosting, l’apprentissage se fait de manière séquentielle. Autrement dit, une série de modèles est construite, et à chaque nouvelle itération, les poids des données mal classifiées dans le modèle précédent sont augmentés. Cette redistribution des poids permet à l’algorithme de se concentrer sur les points de données qui nécessitent une attention particulière afin d’améliorer ses performances. AdaBoost, acronyme de « Adaptative Boosting Algorithm » (algorithme de boosting adaptatif), est l’un des algorithmes de boosting les plus utilisés, car il a été l’un des premiers à être développé. D’autres algorithmes de boosting incluent XGBoost, GradientBoost et BrownBoost.

Le bagging et le boosting diffèrent également dans la manière dont ils sont utilisés. Par exemple, les méthodes de bagging sont généralement utilisées sur les apprenants faibles qui présentent une variance élevée et un biais faible, tandis que les méthodes de boosting sont employées lorsqu’une variance faible et un biais élevé sont observés. Si le bagging peut servir à éviter le surajustement, les méthodes de boosting sont davantage sensibles à ce problème, bien que cela dépende vraiment du jeu de données. Cependant, le réglage des paramètres peut permettre d’y remédier.

Par conséquent, le bagging et le boosting ont également différentes applications dans le monde réel. Le bagging a été exploité pour les processus d’approbation des prêts et les analyses génomiques statistiques, tandis que le boosting a été davantage utilisé dans les applications de reconnaissance d’images et les moteurs de recherche.

AI Academy

Exploiter l’IA pour le service client

Découvrez comment l’IA générative peut ravir les clients avec une expérience plus transparente et augmenter la productivité de l’organisation dans ces trois domaines clés : le libre-service, les agents humains et les opérations du centre de contact.

Types de boosting

Les méthodes de boosting sont axées sur la combinaison itérative d’apprenants faibles pour construire un apprenant fort capable de prédire des résultats plus précis. Pour rappel, un apprenant faible classe les données un peu mieux que les suppositions aléatoires. Cette approche peut fournir des résultats robustes pour les problèmes de prédiction, et même surpasser les réseaux neuronaux et les machines à vecteurs de support pour des tâches comme la récupération d’images.

Les algorithmes de boosting peuvent différer dans la manière dont ils créent et regroupent les apprenants faibles au cours du processus séquentiel. Les trois méthodes de boosting les plus courantes sont les suivantes :

  • Boosting adaptatif ou AdaBoost : Yoav Freund et Robert Schapire sont à l’origine de la création de l’algorithme AdaBoost. Cette méthode fonctionne de manière itérative, identifiant les points de données mal classés et ajustant leurs poids pour minimiser les erreurs à l’entraînement. Le modèle poursuit l’optimisation de manière séquentielle jusqu’à obtenir le prédicteur le plus fort.

  • Boosting de gradient : en s’appuyant sur les travaux de Leo Breiman, Jerome H. Friedman a développé le boosting de gradient, qui fonctionne en ajoutant séquentiellement des prédicteurs à un ensemble, chacun d’entre eux corrigeant les erreurs de son prédécesseur. Cependant, au lieu de modifier les poids des points de données comme AdaBoost, le boosting de gradient entraîne sur les erreurs résiduelles du prédicteur précédent. Le terme « boosting de gradient » est utilisé car il combine l’algorithme de descente de gradient et la méthode du boosting.

  • Boosting de gradient extrême ou XGBoost : XGBoost est une implémentation du boosting de gradient conçue pour la vitesse de calcul et le dimensionnement. XGBoost exploite plusieurs cœurs sur le processeur, ce qui permet un apprentissage en parallèle pendant l’entraînement.

Avantages et défis du boosting

Le boosting présente plusieurs avantages et défis lorsqu’il est utilisé pour des problèmes de classification ou de régression.

Les principaux avantages du boosting sont les suivants :

  • Facilité de mise en œuvre : le boosting peut être utilisé avec plusieurs options de réglage d’hyperparamètres pour améliorer l’ajustement. Aucun prétraitement des données n’est nécessaire et les algorithmes de boosting comportent des routines intégrées pour gérer les données manquantes. En Python, la bibliothèque scikit-learn des méthodes d’ensemble (également appelée sklearn.ensemble) facilite la mise en œuvre des méthodes de boosting les plus courantes, y compris AdaBoost, XGBoost, etc.

  • Réduction des biais : les algorithmes de boosting combinent plusieurs apprenants faibles dans une méthode séquentielle, améliorant de manière itérative les observations. Cette approche contribue à réduire les biais importants, couramment observés dans les arbres de décision peu profonds et les modèles de régression logistique.

  • Efficacité des calculs : comme les algorithmes de boosting ne sélectionnent que les caractéristiques qui augmentent leur pouvoir prédictif pendant l’entraînement, ils contribuent à réduire la dimensionnalité et à augmenter l’efficacité des calculs.

Les principaux défis du boosting sont les suivants :

  •  Surajustement : la question de savoir si le boosting peut ou non aider à réduire le surajustement ou à l’exacerber fait débat au sein de la recherche. Nous incluons cet aspect dans les défis, car dans les cas où il y a surajustement, les prévisions ne peuvent pas être généralisées à de nouveaux jeux de données.

  •  Calcul intense : l’entraînement séquentiel dans le boosting est difficile à dimensionner. Étant donné que chaque estimateur est construit sur ses prédécesseurs, les modèles de boosting peuvent être gourmands en calcul, même si XGBoost peut résoudre les problèmes d’évolutivité rencontrés dans d’autres types de méthodes de boosting. Les algorithmes de boosting peuvent être plus lents à entraîner que le bagging, car un grand nombre de paramètres peuvent également influencer le comportement du modèle.

Applications du boosting

Les algorithmes de boosting sont bien adaptés aux projets d’intelligence artificielle dans un large éventail d’applications, en particulier dans les secteurs suivants :

  • Santé : le boosting est utilisé pour réduire les erreurs dans les prédictions de données médicales, telles que la prédiction des facteurs de risque cardiovasculaire et des taux de survie des patients atteints d’un cancer. Par exemple, une étude montre que les méthodes d’ensemble améliorent considérablement la précision de l’identification des patients susceptibles de bénéficier d’un traitement préventif d’une maladie cardiovasculaire, tout en évitant de traiter inutilement d’autres patients. De même, une autre étude révèle que l’application du boosting à plusieurs plateformes génomiques peut améliorer la prédiction du taux de survie au cancer.

 

  • Informatique : les arbres de régression à boosting de gradient sont utilisés dans les moteurs de recherche pour le classement des pages, tandis que l’algorithme de boosting Viola-Jones est employé pour la récupération d’images. Comme l’a noté Cornell, les classificateurs boostés permettent d’arrêter les calculs plus tôt lorsque la direction vers laquelle se dirige une prédiction est clairement identifiée. Cela signifie qu’un moteur de recherche peut arrêter l’évaluation des pages moins bien classées, tandis que les scanners d’images ne considéreront que les images qui contiennent réellement l’objet souhaité.

  • Finance : le boosting est utilisé avec des modèles d’apprentissage profond pour automatiser les tâches critiques, notamment la détection des fraudes, l’analyse des prix, etc. Par exemple, les méthodes de boosting dans la détection des fraudes à la carte de crédit et l’analyse des prix des produits financiers améliorent la précision de l’analyse des ensembles de données volumineux afin de minimiser les pertes financières.
Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct