Poiché il modello "random forest" è composto da più decision tree, potrebbe essere utile descrivere brevemente l'algoritmo del decision tree. I decision tree iniziano con una domanda di base, come ad esempio: "Dovrei fare surf?" Si possono quindi porre delle domande per determinare una risposta, ad esempio: "Le onde sono lunghe?" o "Il vento soffia al largo?". Queste domande costituiscono i nodi decisionali dell'albero, che servono a suddividere i dati. Ogni domanda aiuta l'individuo a prendere una decisione finale, indicata dal nodo foglia. Le osservazioni che soddisfano i criteri seguiranno il ramo "Sì", mentre quelle che non lo soddisfano seguiranno il percorso alternativo. I decision tree cercano di trovare la migliore suddivisione dei dati e sono in genere addestrati attraverso l'algoritmo Classification and Regression Tree (CART). Per valutare la qualità della suddivisione, si possono utilizzare metriche come l'impurità di Gini, l'information gain o l'errore quadratico medio (MSE).
Questo decision tree è un esempio di problema di classificazione, in cui le etichette delle classi sono "surf" e "don't surf".
Mentre i decision trees sono comuni algoritmi di apprendimento supervisionato, possono essere soggetti a problemi, come distorsioni e sovradattamento. Tuttavia, quando più decision trees formano un insieme nell'algoritmo foresta casuale, prevedono risultati più precisi, in particolare quando i singoli alberi non sono correlati tra loro.