Qualquer algoritmo de treinamento de modelo consiste em inúmeras variáveis, como dados de treinamento, hiperparâmetros etc. que afetam o erro total do modelo consequente. Assim, até mesmo um único algoritmo de treinamento pode produzir modelos diferentes, cada um com seu próprio viés, variância e taxas de erro irredutíveis. Ao combinar vários modelos diversos, os algoritmos em conjunto podem produzir uma taxa de erro geral mais baixa, mantendo as próprias complexidades e vantagens de cada modelo individual, como um viés notavelmente baixo para um subconjunto de dados específico.7
Pesquisas sugerem que, em geral, quanto maior a diversidade entre os modelos combinados, mais preciso é o modelo em conjunto resultante. O aprendizado em conjunto pode, portanto, lidar com problemas de regressão, como overfitting, sem eliminar o viés do modelo. De fato, pesquisas sugerem que conjuntos compostos por diversos modelos sub-regularizados (ou seja, modelos com overfitting em relação a seus dados de treinamento) superam os modelos regularizados únicos.8 Além disso, as técnicas de aprendizado em conjunto podem ajudar a resolver problemas decorrentes de dados de alta dimensão e, assim, servir efetivamente como uma alternativa à redução da dimensionalidade.