Como o próprio nome indica, esse algoritmo de meta-aprendizado baseado em otimização é independente de modelos. Isso o torna compatível com qualquer modelo treinado usando gradiente descendente e adequado para resolver vários problemas de aprendizado, como classificação, regressão e aprendizado por reforço.8
A ideia central por trás do MAML é treinar os parâmetros iniciais do modelo de modo que algumas atualizações de gradiente resultem em aprendizado rápido sobre uma nova tarefa. O objetivo é determinar os parâmetros do modelo que são sensíveis a alterações em uma tarefa, de modo que pequenas alterações nesses parâmetros levem a grandes melhorias na função de perda da tarefa. A meta-otimização entre tarefas é feita usando gradiente descendente estocástico (SGD).8
Ao contrário do gradiente descendente, que calcula derivadas para otimizar os parâmetros de um modelo para uma determinada tarefa, o MAML calcula derivadas de segunda ordem para otimizar os parâmetros iniciais de um modelo para a otimização específica da tarefa. Uma versão modificada do meta-aprendizado independente de modelo, conhecida como MAML de primeira ordem ou FOMAML, omite as derivadas de segunda ordem para um processo menos dispendioso em termos computacionais.8