Come suggerisce il nome, questo algoritmo di meta learning basato sull'ottimizzazione è indipendente dal modello. Ciò lo rende compatibile con qualsiasi modello addestrato utilizzando la discesa del gradiente e adatto a risolvere vari problemi di apprendimento, come la classificazione, la regression e l'apprendimento per rinforzo.8
L'idea fondamentale alla base di MAML è quella di addestrare i parametri iniziali del modello in modo che alcuni aggiornamenti del gradiente determinino un rapido apprendimento di un nuovo compito. L'obiettivo è determinare parametri del modello che siano sensibili ai cambiamenti in un compito in modo che piccole modifiche a quei parametri portino a grandi miglioramenti nella funzione di perdita del compito. La meta-ottimizzazione tra le attività viene eseguita utilizzando la discesa stocastica del gradiente (SGD).8
A differenza della discesa del gradiente, che calcola le derivate per ottimizzare i parametri di un modello per un compito specifico, MAML calcola le derivate seconde per ottimizzare i parametri iniziali di un modello per un'ottimizzazione specifica del compito. Una versione modificata del model-agnostic meta learning, nota come MAML di primo ordine o FOMAML, omette le derivate seconde per un processo meno costoso dal punto di vista computazionale.8