El aprendizaje conjunto refuerza la idea de la "sabiduría de las multitudes", que sugiere que la toma de decisiones de un grupo más amplio de personas suele ser mejor que la de un experto individual. Del mismo modo, el aprendizaje conjunto se refiere a un grupo (o conjunto) de aprendices base, o modelos, que trabajan de forma colectiva para lograr una mejor predicción final.
Un modelo único, también conocido como modelo básico o de aprendizaje débil, puede no funcionar bien individualmente debido a la alta varianza o al alto sesgo. Sin embargo, cuando se agregan los aprendices débiles, pueden formar un aprendiz fuerte, ya que su combinación reduce el sesgo o la varianza, lo que produce un mejor rendimiento del modelo.
Los métodos de conjuntos utilizan con frecuencia árboles de decisión como ilustración. Este algoritmo puede ser propenso a sobreajuste, mostrando una alta varianza y un bajo sesgo, cuando no ha sido podado. A la inversa, también puede prestarse a un infraajuste, con una varianza baja y un sesgo alto, cuando es muy pequeño, como un tocón de decisión, que es un árbol de decisión con un nivel.
Recuerde que cuando un algoritmo se ajusta en exceso o en defecto a su conjunto de entrenamiento, no puede generalizar bien a nuevos conjuntos de datos, por lo que los métodos de conjuntos se utilizan para contrarrestar este comportamiento y permitir la generalización del modelo a nuevos conjuntos de datos. Aunque los árboles de decisión pueden presentar una varianza o un sesgo elevados, cabe señalar que no es la única técnica de modelado que aprovecha el aprendizaje por conjuntos para encontrar el punto óptimo dentro del equilibrio sesgo-varianza.