Los métodos basados en el aprendizaje por transferencia se centran en la adaptación de un modelo previamente entrenado para aprender nuevas tareas o clases de datos no vistas previamente.
Cuando se dispone de pocas muestras etiquetadas, utilizar el aprendizaje supervisado para entrenar un modelo desde cero, especialmente uno con un gran número de parámetros, como las redes neuronales convolucionales (CNN) que se suelen utilizar en visión artificial o las redes basadas en transformadores que se emplean en el procesamiento de lenguaje natural (PLN), suele conducir a un sobreajuste: el modelo puede funcionar bien en los datos de prueba, pero mal en los datos del mundo real. Pero recopilar una cantidad suficientemente grande de datos para evitar el sobreajuste suele ser un cuello de botella en el entrenamiento de modelos.
El aprendizaje por transferencia ofrece una solución práctica: aprovechar las características y representaciones útiles que un modelo entrenado ya ha aprendido. Un enfoque simple es ajustar un modelo de clasificación para realizar la misma tarea para una nueva clase a través del aprendizaje supervisado en un pequeño número de ejemplos etiquetados. Los enfoques más complejos enseñan nuevas habilidades a través del diseño de tareas posteriores relevantes (a menudo, de metaaprendizaje) a un modelo que ha sido entrenado previamente a través de tareas de pretexto: esto es cada vez más común en el PLN, particularmente en el contexto de modelos fundacionales.
Los enfoques de aprendizaje de transferencia más complejos adaptan una red neuronal entrenada a través de cambios en la arquitectura de la red: por ejemplo, reemplazar o volver a entrenar las capas externas de una red neuronal, donde se produce la clasificación final, mientras se mantienen las capas internas donde se produce la extracción de características. Congelar (o regularizar de otro modo los cambios en) las ponderaciones del modelo para todas las capas, excepto para las capas más externas, puede garantizar que las actualizaciones posteriores no den como resultado un “olvido catastrófico” del conocimiento ya aprendido. Esto permite un aprendizaje muy acelerado en un contexto de few-shot.
El aprendizaje por transferencia es más eficaz cuando el entrenamiento inicial del modelo es relevante para la nueva tarea. Por ejemplo, un modelo entrenado para determinadas especies de aves se generalizará bien a especies de aves no vistas tras un ajuste con solo unas cuantas muestras etiquetadas, porque las ponderaciones aprendidas de los filtros que la CNN utiliza para las convoluciones ya están optimizados para captar características relevantes para la clasificación de aves (como el plumaje, los picos, el tamaño de las alas, etc.), pero, si se utiliza el aprendizaje de pocas muestras para enseñar al mismo modelo a reconocer vehículos, el rendimiento será menos satisfactorio.