Eine Überanpassung macht den Zweck des maschinellen Lernens zunichte. Die Verallgemeinerung eines Modells auf neue Daten ist letztlich das, was es uns ermöglicht, Algorithmen des maschinellen Lernens tagtäglich für Vorhersagen und die Klassifizierung von Daten zu verwenden.
Wenn Algorithmen für maschinelles Lernen erstellt werden, nutzen sie einen Datensatz, um das Modell zu trainieren. Wenn das Modell jedoch zu lange mit Beispieldaten trainiert wird oder wenn das Modell zu komplex ist, kann es beginnen, das „Rauschen“ oder irrelevante Informationen innerhalb des Datensatzes zu lernen. Wenn sich das Modell das Rauschen einprägt und zu eng an den Trainingssatz anpasst, kommt es zu einer „Überanpassung“ des Modells und es kann nicht mehr gut auf neue Daten verallgemeinert werden. Wenn ein Modell nicht gut auf neue Daten verallgemeinern kann, wird es nicht in der Lage sein, die Klassifizierungs- oder Prognoseaufgaben auszuführen, für die es vorgesehen war.
Niedrige Fehlerquoten und eine hohe Varianz sind gute Indikatoren für eine Überanpassung. Um diese Art von Verhalten zu verhindern, wird in der Regel ein Teil des Trainingsdatensatzes als „Testdatensatz“ zur Prüfung auf Überanpassung beiseite gelegt. Wenn die Trainingsdaten eine niedrige Fehlerquote und die Testdaten eine hohe Fehlerquote aufweisen, deutet dies auf eine Überanpassung hin.