Wie der Name schon sagt, ist dieser optimierungsbasierte Meta-Lernalgorithmus modellunabhängig. Dadurch ist er mit jedem Modell kompatibel, das mit Gradientenabstieg trainiert wurde, und eignet sich für die Lösung verschiedener Lernprobleme, wie Klassifikation, Regression und verstärkendes Lernen.8
Die Kernidee hinter MAML besteht darin, die anfänglichen Parameter des Modells so zu trainieren, dass einige wenige Gradientenaktualisierungen zu einem schnellen Lernen bei einer neuen Aufgabe führen. Das Ziel ist es, Modellparameter zu bestimmen, die empfindlich auf Änderungen in einer Aufgabe reagieren, sodass geringfügige Änderungen an diesen Parametern zu wesentlichen Verbesserungen der Verlustfunktion der Aufgabe führen. Die Metaoptimierung über alle Aufgaben hinweg erfolgt mithilfe des stochastischen Gradientenabstiegs (SGD).8
Im Gegensatz zum Gradientenabstieg, bei dem Ableitungen berechnet werden, um die Parameter eines Modells für eine bestimmte Aufgabe zu optimieren, berechnet MAML zweite Ableitungen, um die Anfangsparameter eines Modells für die aufgabenspezifische Optimierung zu optimieren. Eine modifizierte Version des modellagnostischen Meta-Learning, bekannt als MAML erster Ordnung oder FOMAML (First-Order MAML), lässt zweite Ableitungen weg, um einen weniger rechenintensiven Prozess zu ermöglichen.8