Como su nombre lo indica, este algoritmo de meta aprendizaje basado en optimización es independiente del modelo. Esto lo hace compatible con cualquier modelo capacitado mediante descenso de gradiente y adecuado para resolver diversos problemas de aprendizaje, como la clasificación, la regression y el aprendizaje por refuerzo.8
La idea central detrás de MAML es entrenar los parámetros iniciales del modelo de manera que unas pocas actualizaciones de gradiente den como resultado un rápido aprendizaje en una nueva tarea. El objetivo es determinar los parámetros del modelo que son sensibles a los cambios en una tarea, de modo que cambios menores en esos parámetros conduzcan a mejoras importantes en la función de pérdida de la tarea. La meta optimización en todas las tareas se realiza mediante el descenso de gradiente estocástico (SGD).8
A diferencia del descenso de gradiente, que calcula derivadas para optimizar los parámetros de un modelo para una determinada tarea, MAML calcula segundas derivadas para optimizar los parámetros iniciales de un modelo para la optimización específica de la tarea. Una versión modificada del meta aprendizaje independiente del modelo, conocida como MAML de primer orden o FOMAML, omite las segundas derivadas para un proceso menos costoso desde el punto de vista computacional.8