Los algoritmos de bosque aleatorio tienen tres hiperparámetros principales, que deben establecerse antes del entrenamiento. Entre ellos están el tamaño de los nodos, el número de árboles y el número de características muestreadas. A partir de ahí, el clasificador de bosque aleatorio puede utilizarse para resolver problemas de regresión o clasificación.
El algoritmo de bosque aleatorio se compone de una colección de árboles de decisión, y cada árbol del conjunto se compone de una muestra de datos extraída de un conjunto de entrenamiento con reemplazo, denominada muestra bootstrap. De esa muestra de entrenamiento, un tercio se reserva como datos de prueba, lo que se conoce como muestra "fuera de la bolsa" o "out-of-bag" (oob), a la que volveremos más adelante. A continuación, se inyecta otra instancia de aleatoriedad a través del feature bagging, lo que añade más diversidad al conjunto de datos y reduce la correlación entre los árboles de decisión. Dependiendo del tipo de problema, la determinación de la predicción variará. Para una tarea de regresión, se promediarán los árboles de decisión individuales, y para una tarea de clasificación, un voto mayoritario (es decir, la variable categórica más frecuente) dará como resultado la clase predicha. Por último, la muestra oob se utiliza para la validación cruzada, finalizando esa predicción.