Veja a seguir um detalhamento passo a passo de como o processo de gradient boosting funciona.
Inicialização: começa usando um conjunto de treinamento para estabelecer uma base com um modelo básico de aprendiz, geralmente uma árvore de decisão, cujas previsões iniciais são geradas aleatoriamente. Normalmente, a árvore de decisão conterá apenas alguns nós terminais ou nós folhas. Muitas vezes escolhidos devido à sua interpretabilidade, esses aprendizes fracos ou básicos servem como um ponto de partida ideal. Essa configuração inicial abre caminho para as iterações subsequentes.
Cálculo de resíduos: para cada exemplo de treinamento, calcule o erro residual subtraindo o valor previsto do valor real. Essa etapa identifica as áreas em que as previsões do modelo precisam de melhorias.
Refinamento com regularização: após o cálculo dos resíduos e antes do treinamento de um novo modelo, ocorre o processo de regularização. Essa etapa envolve a redução da escala da influência de cada novo aprendiz fraco integrado ao conjunto. Ao calibrar cuidadosamente essa escala, pode-se governar a rapidez com que o algoritmo de boosting avança, ajudando, assim, na prevenção do overfitting e na otimização geral do desempenho.
Treinamento do próximo modelo: use os erros residuais calculados na etapa anterior como alvos e treine um novo modelo ou aprendiz fraco para prevê-los com precisão. O foco dessa etapa é corrigir os erros cometidos pelos modelos anteriores, refinando a previsão geral.
Atualizações em conjunto: nesse estágio, o desempenho do conjunto atualizado (incluindo o modelo recém-treinado) é normalmente avaliado usando um conjunto de testes separado. Se o desempenho nesse conjunto de dados de retenção for satisfatório, o conjunto poderá ser atualizado incorporando o novo aprendiz fraco; caso contrário, talvez sejam necessários ajustes nos hiperparâmetros.
Repetição: repita as etapas apresentadas anteriormente conforme a necessidade. Cada iteração se baseia e refina o modelo básico por meio do treinamento de novas árvores, melhorando ainda mais a precisão do modelo. Se a atualização em conjunto e o modelo final forem satisfatórios em comparação com o modelo de referência com base na precisão, então passe para a próxima etapa.
Critérios de parada: interromper o processo de boosting quando um critério de parada predeterminado for atendido, como um número máximo de iterações, precisão do alvo ou retornos decrescentes. Essa etapa ajuda a garantir que a previsão final do modelo alcance o equilíbrio esperado entre complexidade e desempenho.