Sesuai namanya, algoritma pembelajaran meta berbasis pengoptimalan ini bersifat agnostik model. Hal ini membuatnya kompatibel dengan model apa pun yang dilatih menggunakan penurunan gradien dan cocok untuk menyelesaikan berbagai masalah pembelajaran, seperti klasifikasi, regresi, dan pembelajaran penguatan.8
Ide inti di balik MAML adalah untuk melatih parameter awal model dengan suatu cara agar beberapa pembaruan gradien akan menghasilkan pembelajaran yang cepat pada tugas baru. Tujuannya adalah untuk menentukan parameter model yang sensitif terhadap perubahan dalam tugas sehingga perubahan kecil pada parameter tersebut akan menghasilkan perbaikan besar dalam fungsi kerugian tugas. Pengoptimalan meta di seluruh tugas dilakukan dengan menggunakan penurunan gradien stokastik (SGD).8
Tidak seperti penurunan gradien, yang menghitung turunan untuk mengoptimalkan parameter model untuk tugas tertentu, MAML menghitung turunan kedua untuk mengoptimalkan parameter awal model untuk pengoptimalan khusus tugas. Versi modifikasi dari pembelajaran meta agnostik model, yang dikenal sebagai MAML orde pertama atau FOMAML, menghilangkan turunan kedua untuk proses yang tidak terlalu mahal secara komputasi.8