Los árboles de decisión se utilizan para tareas de clasificación o regresión en machine learning. Emplean una estructura de árbol jerárquico en la que un nodo interno representa una característica, la rama representa una regla de decisión y cada nodo hoja representa el resultado del conjunto de datos.
Debido a que los árboles de decisión son propensos al sobreajuste, los métodos de conjunto, como el boosting, a menudo se pueden usar para crear modelos más robustos. El boosting combina múltiples árboles débiles individuales, es decir, modelos que funcionan ligeramente mejor que el azar, para formar un aprendiz fuerte. A cada aprendiz débil se le entrena secuencialmente para corregir los errores cometidos por los modelos anteriores. Luego de cientos de iteraciones, los aprendices débiles se convierten en aprendices fuertes.
Los algoritmos de bosques aleatorios y de boosting son técnicas populares de aprendizaje por conjuntos que emplean árboles de aprendizaje individuales para mejorar el rendimiento predictivo. Los bosques aleatorios se basan en el concepto de bagging (agregación de bootstrapping) y entrenan cada árbol de forma independiente para combinar sus predicciones, mientras que los algoritmos de boosting emplean un enfoque aditivo en el que los aprendices débiles se capacitan secuencialmente para corregir los errores de los modelos anteriores.