L’optimisation bayésienne est un algorithme d’optimisation basé sur un modèle séquentiel (SMBO, acronyme anglais de Sequential Model-Based Optimization) dans lequel chaque itération de test améliore la méthode d’échantillonnage de la prochaine. Les recherches par grille et les recherches aléatoires peuvent être effectuées simultanément, mais chaque test est effectué indépendamment : les data scientists ne peuvent pas utiliser ce qu’ils ont appris pour éclairer les tests ultérieurs.
Sur la base de tests antérieurs, l’optimisation bayésienne sélectionne de manière probabiliste un nouvel ensemble de valeurs d’hyperparamètres susceptibles de fournir de meilleurs résultats. Le modèle probabiliste est appelé modèle de substitution de la fonction objective d’origine. Les modèles de substitution étant efficaces en termes de calcul, ils sont généralement mis à jour et améliorés chaque fois que la fonction objectif est exécutée.
Plus il est efficace pour prédire les hyperparamètres optimaux, plus le processus est rapide et moins de tests de fonctions objectifs sont nécessaires. Cela rend l’optimisation bayésienne beaucoup plus efficace que les autres méthodes, car vous ne perdez pas de temps sur des combinaisons inappropriées de valeurs d’hyperparamètres.
Le processus consistant à déterminer statistiquement la relation entre un résultat (dans ce cas, la meilleure performance du modèle) et un ensemble de variables est connu sous le nom d'analyse de régression. Les processus gaussiens sont l'un des SMBO les plus populaires auprès des data scientists.