Die Bayes'sche Optimierung ist ein sequentieller modellbasierter Optimierungsalgorithmus (SMBO), bei dem jede Testiteration die Stichprobenmethode der nächsten verbessert. Sowohl Raster- als auch Zufallssuchen können gleichzeitig durchgeführt werden, aber jeder Test wird für sich genommen durchgeführt – die Data Scientists können ihre Erkenntnisse nicht für nachfolgende Tests nutzen.
Basierend auf vorhergehenden Tests wählt die Bayes'sche Optimierung probabilistisch einen neuen Satz von Hyperparameterwerten aus, der wahrscheinlich bessere Ergebnisse liefert. Das probabilistische Modell wird als Surrogat für die ursprüngliche Zielfunktion bezeichnet. Da Surrogatmodelle recheneffizient sind, werden sie normalerweise bei jeder Ausführung der Zielfunktion aktualisiert und verbessert.
Je besser das Surrogat die optimalen Hyperparameter vorhersagt, desto schneller wird der Prozess, wobei weniger Zielfunktionstests erforderlich sind. Dies macht die Bayes'sche Optimierung weitaus effizienter als die anderen Methoden, da keine Zeit mit ungeeigneten Kombinationen von Hyperparameterwerten verschwendet wird.
Der Prozess der statistischen Bestimmung der Beziehung zwischen einem Ergebnis – in diesem Fall der besten Modellleistung – und einer Reihe von Variablen wird als Regression-Analyse bezeichnet. Gauß'sche Prozesse sind ein solcher SMBO, der bei Data Scientists beliebt ist.