Al aumentar el sesgo y disminuir la varianza, la regularización resuelve el sobreajuste del modelo. El sobreajuste se produce cuando el error en los datos de entrenamiento disminuye mientras que el error en los datos de prueba deja de disminuir o comienza a aumentar.3 En otras palabras, el sobreajuste describe modelos con bajo sesgo y alta varianza. Sin embargo, si la regularización introduce demasiado sesgo, el modelo no se ajustará adecuadamente.
A pesar de su nombre, el subajuste no denota lo contrario del sobreajuste. El subajuste describe modelos caracterizados por un alto sesgo y una alta varianza. Un modelo insuficientemente ajustado produce predicciones erróneas insatisfactorias durante el entrenamiento y las pruebas. Esto a menudo se debe a datos o parámetros de entrenamiento insuficientes.
Sin embargo, la regularización también puede conducir a un desajuste del modelo. Si se introduce demasiado sesgo a través de la regularización, la varianza del modelo puede dejar de disminuir e incluso aumentar. La regularización puede tener este efecto particularmente en modelos simples, es decir, modelos con pocos parámetros. Al determinar el tipo y el grado de regularización a implementar, se debe considerar la complejidad de un modelo, el conjunto de datos, entre otros.4