L'apprentissage ensembliste s'appuie sur le concept de « sagesse des foules », qui postule qu'un groupe prend généralement de meilleures décisions qu'un expert isolé. De la même manière, l'apprentissage ensembliste désigne un groupe (ou ensemble) d’apprenants ou modèles de base, qui collaborent pour offrir une meilleure prédiction finale.
Un modèle individuel, aussi appelé modèle de base ou apprenant faible, peut montrer des performances médiocres en raison d'une variance ou d'un biais élevé. Cependant, lorsque ces apprenants faibles sont agrégés, ils forment un apprenant fort, car leur combinaison réduit le biais ou la variance, améliorant ainsi les performances globales du modèle.
Les arbres de décision sont souvent utilisés pour illustrer ces méthodes ensemblistes. Cet algorithme peut souffrir de surajustement (variance élevée, biais faible) lorsqu'il n'a pas été élagué. À l'inverse, un arbre de décision trop simple, comme une souche de décision (un arbre avec un seul niveau), peut être sujet à un sous-ajustement (variance faible, biais élevé).
Notez que lorsqu'un algorithme ne s'adapte pas bien ou s'adapte trop à son ensemble d'entraînement, il ne parviendra pas à bien généraliser sur de nouveaux ensembles de données. Bien que les arbres de décision puissent présenter un biais ou une variance élevée, ils ne sont pas la seule technique qui profite de l'apprentissage ensembliste pour trouver le juste équilibre dans le compromis biais-variance.