Aumentando la distorsione e diminuendo la varianza, la regolarizzazione risolve l'overfitting del modello. L'overfitting si verifica quando l'errore sui dati di addestramento diminuisce mentre l'errore sui dati di test cessa di diminuire o inizia ad aumentare.3 In altre parole, l'overfitting descrive modelli con bassa distorsione e varianza elevata. Tuttavia, se la regolarizzazione introduce troppe distorsioni, il modello risulterà inadeguato (underfitting).
Nonostante il suo nome, underfitting non indica il contrario di overfitting. Piuttosto, l'underfitting descrive modelli caratterizzati da una distorsione elevata e da una varianza elevata. Un modello inadeguato produce previsioni erronee e insoddisfacenti durante l'addestramento e i test, cosa che spesso è dovuta a dati o parametri di addestramento insufficienti.
La regolarizzazione, tuttavia, potenzialmente può portare anche all'underfitting del modello. Se viene introdotta una distorsione eccessiva attraverso la regolarizzazione, la varianza del modello può cessare di diminuire e persino aumentare. La regolarizzazione può avere questo effetto in particolare sui modelli semplici, cioè sui modelli con pochi parametri. Nello stabilire il tipo e il grado di regolarizzazione da implementare, quindi, bisogna considerare la complessità del modello, il set di dati e così via.4