O aprendizado coletivo fundamenta a ideia da "sabedoria das multidões", o que sugere que a tomada de decisão de um grupo maior de pessoas normalmente é melhor do que a de um especialista individual Da mesma forma, o aprendizado em conjunto refere-se a um grupo (ou ensemble) de modelos ou aprendizes básicos que trabalham coletivamente para obter uma previsão final melhor.
Um único modelo, também conhecido como aluno de base ou fraco, pode não ter um bom desempenho individualmente devido à alta variância ou ao alto viés. No entanto, quando os aprendizes fracos são agregados, eles podem formar um aprendiz forte, pois sua combinação reduz o viés ou a variância, resultando em um melhor desempenho do modelo.
Os métodos de conjunto frequentemente usam árvores de decisão para ilustração. Esse algoritmo pode ser suscetível a overfitting, apresentando alta variância e baixo viés, quando não foi podado. Por outro lado, também pode levar a underfitting, com baixa variância e alto viés, quando é muito pequeno, como um decision stump (árvore de decisão com apenas um nível).
Lembre-se de que, quando um algoritmo se ajusta demais ou de menos ao seu conjunto de treinamento, ele é incapaz de fazer boas generalizações em novos conjuntos de dados, portanto, os métodos em conjunto são usados para neutralizar esse comportamento e permitir a generalização do modelo para novos conjuntos de dados. Embora as árvores de decisão possam apresentar uma alta variação ou um alto viés, vale a pena observar que essa não é a única técnica de modelagem que utiliza o aprendizado em conjunto para encontrar o "ponto ideal" no equilíbrio entre a polarização e o viés.