Einfach ausgedrückt: Überanpassung ist das Gegenteil von Unteranpassung. Sie tritt auf, wenn das Modell übertrainiert wurde oder wenn es zu komplex ist, was zu hohen Fehlerraten bei den Testdaten führt. Eine Überanpassung eines Modells ist häufiger als eine Unteranpassung und eine Unteranpassung erfolgt in der Regel dann, wenn einer Überanpassung durch einen Prozess, der als „early Stopping“ bezeichnet wird, vorgebeugt werden soll.
Wenn unzureichendes Training oder mangelnde Komplexität zu einer Unteranpassung führt, dann wäre eine logische Strategie, die Dauer des Trainings zu verlängern oder relevante Eingaben hinzuzufügen. Wenn Sie das Modell jedoch zu stark trainieren oder zu viele Merkmale hinzufügen, kann es zu einer Überanpassung Ihres Modells kommen, was zu einer geringen Verzerrung, aber einer hohen Varianz (dem Verzerrung-Varianz-Dilemma) führt. In diesem Szenario passt sich das statistische Modell zu eng an die Trainingsdaten an, sodass die Generalisierung auf neue Datenpunkte nicht funktioniert. Es ist wichtig zu beachten, dass einige Arten von Modellen anfälliger für eine Überanpassung sind als andere, wie z. B. Entscheidungsbäume oder KNN.
Eine Überanpassung ist eventuell schwieriger zu entdecken als eine Unteranpassung, da die Trainingsdaten in einem überangepassten Modell im Gegensatz zu einem unterangepassten Modell mit hoher Genauigkeit ausgeführt werden. Um die Genauigkeit eines Algorithmus zu bewerten, wird in der Regel eine Technik verwendet, die als k-fache Kreuzvalidierung bezeichnet wird.
Bei der k-fachen Kreuzvalidierung werden die Daten in k gleich große Teilmengen aufgeteilt, die auch als „Folds“ bezeichnet werden. Eine der k-Folds dient als Testset, auch Holdout-Set oder Validierungsset genannt, und die übrigen Folds dienen zum Trainieren des Modells. Dieser Prozess wird so lange wiederholt, bis jeder Fold als Holdout-Fold fungiert hat. Nach jeder Auswertung wird eine Punktzahl festgehalten. Wenn alle Iterationen abgeschlossen sind, werden die Punktzahlen zur Bewertung der Leistung des Gesamtmodells ermittelt.
Das ideale Szenario beim Anpassen eines Modells besteht darin, das Gleichgewicht zwischen Über- und Unteranpassung zu finden. Die Identifizierung dieses Sweetspots zwischen den beiden ermöglicht den Modellen des maschinellen Lernens, genaue Vorhersagen zu treffen.