L’apprentissage d’ensemble est une technique de machine learning qui regroupe deux ou plusieurs apprenants (par exemple, modèles de régression, réseaux de neurones) afin de produire de meilleures prédictions. En d’autres termes, un modèle d’ensemble combine plusieurs modèles individuels pour produire des prédictions plus précises qu’un seul modèle.1 Parfois, les sources peuvent faire référence à cette technique sous le nom d’apprentissage en comité. L’apprentissage d’ensemble repose sur le principe qu’une collectivité d’apprenants permet d’obtenir une meilleure précision globale qu’un apprenant individuel.2 En effet, la recherche soutient son efficacité avec des modèles de machine learning et de réseaux de neurones convolutifs (CNN).
Une remarque sur la terminologie : l’apprenant de base, le modèle de base et, dans certains cas, l’estimateur de base font référence au modèle individuel ou aux modèles utilisés dans les algorithmes d’ensemble. La littérature divise également les apprenants de base en deux catégories : les apprenants forts et les apprenants faibles. Les modèles ou apprenants faibles sont définis comme ceux dont les performances sont à peine supérieures à celles d’une supposition aléatoire. Pour les problèmes de classification binaire, les classificateurs faibles sont plus formellement ceux qui atteignent une précision d’environ 50 %. En revanche, les modèles ou apprenants forts atteignent d’excellentes performances prédictives, qui, dans la classification binaire, sont formalisées comme une précision égale ou supérieure à 80 %.3
Notez que certaines sources font l’amalgame entre apprenant faible et apprenant de base, étant donné que les méthodes d’ensemble, en particulier les méthodes séquentielles, permettent de transformer les apprenants faibles en apprenants forts.4