Como su nombre indica, este algoritmo de metaaprendizaje basado en la optimización es independiente del modelo. Esto hace que sea compatible con cualquier modelo entrenado mediante el descenso de gradientes y es adecuado para resolver varios problemas de aprendizaje, como la clasificación, la regresión y el aprendizaje por refuerzo.8
La idea central detrás del MAML es entrenar los parámetros iniciales del modelo de manera que algunas actualizaciones de gradiente resulten en un aprendizaje rápido en una nueva tarea. El objetivo es determinar los parámetros del modelo que son sensibles a los cambios en una tarea, de modo que cambios menores en esos parámetros conduzcan a mejoras importantes en la función de pérdida de la tarea. La metaoptimización entre tareas se realiza mediante el descenso de gradiente estocástico (SGD).8
A diferencia del descenso de gradiente, que computa derivadas para optimizar los parámetros de un modelo para una tarea determinada, MAML computa segundas derivadas para optimizar los parámetros iniciales de un modelo para la optimización específica de la tarea. Una versión modificada del metaaprendizaje agnóstico de modelos, conocida como MAML de primer orden o FOMAML, omite las segundas derivadas para conseguir un proceso menos costeso desde el punto de vista computacional.8