Las últimas tendencias de IA presentadas por expertos
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
En machine learning, el sobreajuste ocurre cuando un modelo se ajusta demasiado o incluso exactamente a sus datos de entrenamiento, de modo que no puede hacer predicciones o conclusiones precisas a partir de ningún dato que no sea el de entrenamiento.
El sobreajuste anula el propósito del modelo de aprendizaje automático. La generalización de un modelo a nuevos datos es, en última instancia, lo que nos permite utilizar algoritmos de aprendizaje automático todos los días para hacer predicciones y clasificar datos.
Cuando se construyen algoritmos de aprendizaje automático, aprovechan un conjunto de datos de muestra para entrenar el modelo. Sin embargo, cuando el modelo se entrena durante demasiado tiempo con datos de muestra o cuando el modelo es demasiado complejo, puede comenzar a aprender el "ruido" o información irrelevante dentro del conjunto de datos. Cuando el modelo memoriza el ruido y se ajusta demasiado al conjunto de entrenamiento, el modelo se "sobreajusta" y no puede generalizar bien a los nuevos datos. Si un modelo no puede generalizarse bien a nuevos datos, no podrá realizar las tareas de clasificación o predicción para las que estaba destinado.
Las bajas tasas de error y una alta varianza son buenos indicadores de un sobreajuste. Para evitar este tipo de comportamiento, parte del conjunto de datos de entrenamiento normalmente se reserva como el "conjunto de prueba" para comprobar si hay un sobreajuste. Si los datos de entrenamiento tienen una tasa de error baja y los datos de prueba tienen una tasa de error alta, indica un sobreajuste.
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
Si el sobreentrenamiento o la complejidad del modelo dan como resultado un sobreajuste, entonces una respuesta de prevención lógica sería pausar antes el proceso de entrenamiento, también conocido como "detención anticipada", o reducir la complejidad en el modelo eliminando entradas menos relevantes. Sin embargo, si hace una pausa demasiado pronto o excluye demasiadas características importantes, puede encontrar el problema opuesto y, en cambio, puede que no se ajuste bien a su modelo. Elsubajuste ocurre cuando el modelo no se ha entrenado durante suficiente tiempo o las variables de entrada no son lo suficientemente significativas como para determinar una relación significativa entre las variables de entrada y salida.
En ambos escenarios, el modelo no puede establecer la tendencia dominante dentro del conjunto de datos de entrenamiento. Como resultado, el subajuste también se generaliza mal a datos no vistos. Sin embargo, a diferencia del sobreajuste, los modelos infraajustados tienen una Experiencia de alto sesgo y menos varianza dentro de sus predicciones. El sobreajuste frente al subajuste ilustra el equilibrio entre sesgo y varianza, que se produce cuando un modelo infraajustado cambia a un estado sobreajustado. A medida que el modelo aprende, su sesgo se reduce, pero puede aumentar su varianza a medida que se sobreajusta. Al ajustar un modelo, el objetivo es encontrar el "punto óptimo" entre el ajuste insuficiente y el sobreajuste, de modo que pueda establecer una tendencia dominante y aplicarla ampliamente a nuevos conjuntos de datos.
Para comprender la precisión de los modelos de aprendizaje automático, es importante probar la idoneidad del modelo. La validación cruzada de pliegues K es una de las técnicas más populares para evaluar la precisión del modelo.
En la validación cruzada de pliegues K, los datos se dividen en K subconjuntos de igual tamaño, que también se denominan "pliegues". Uno de los pliegues K actuará como conjunto de prueba, también conocido como conjunto de retención o conjunto de validación, y los pliegues restantes entrenarán el modelo. Este proceso se repite hasta que cada uno de los pliegues haya actuado como pliegue de retención. Después de cada evaluación, se conserva una puntuación y, cuando se han completado todas las iteraciones, se promedian las puntuaciones para evaluar el rendimiento del modelo global.
Si bien el uso de un modelo lineal nos ayuda a evitar el sobreajuste, muchos problemas del mundo real no son lineales. Además de entender cómo detectar el sobreajuste, es importante entender cómo evitar el sobreajuste por completo. A continuación se muestran varias técnicas que puede utilizar para evitar el sobreajuste:
Si bien lo anterior es la definición establecida de sobreajuste, investigaciones recientes indican que los modelos complejos, como los modelos de aprendizaje profundo y las redes neuronales, funcionan con una alta precisión a pesar de estar entrenados para "ajustarse o interpolarse exactamente". Este hallazgo está directamente en desacuerdo con la literatura histórica sobre este tema, y se explica a través de la curva de riesgo de "doble descenso" a continuación. Puede ver que a medida que el modelo aprende más allá del umbral de interpolación, el rendimiento del modelo mejora. Los métodos que mencionamos anteriormente para evitar el sobreajuste, como la detención anticipada y la regularización, en realidad pueden evitar la interpolación.
Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.
Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.
Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.