Árvores de decisão são usadas para tarefas de classificação ou regressão em aprendizado de máquina. Elas utilizam uma estrutura de árvore hierárquica, onde um nó interno representa uma funcionalidade, o ramo representa uma regra de decisão e cada nó de folha representa o resultado do conjunto de dados.
Como as árvores de decisão são propensas a overfitting, métodos em conjunto, como o boosting, podem frequentemente ser usados para criar modelos mais robustos. O boosting combina várias árvores fracas individuais, ou seja, modelos que apresentam desempenho ligeiramente superior ao acaso, para formar um aprendiz forte. Cada aprendiz fraco é treinado sequencialmente para corrigir os erros cometidos pelos modelos anteriores. Após centenas de iterações, os aprendizes fracos são transformados em aprendizes fortes.
Florestas aleatórias e algoritmos de boosting são técnicas populares de ensemble learning que utilizam árvores de aprendizes individuais para melhorar o desempenho preditivo. As florestas aleatórias são baseadas no conceito de bagging (agregação de bootstrapping) e treinam cada árvore de forma independente para combinar suas previsões, enquanto os algoritmos de boosting utilizam uma abordagem aditiva, onde aprendizes fracos são treinados sequencialmente para corrigir os erros dos modelos anteriores.