Comme son nom l’indique, cet algorithme de méta-apprentissage basé sur l’optimisation est indépendant du modèle. Il est donc compatible avec tout modèle entraîné avec la descente de gradient et convient à la résolution de divers problèmes d’apprentissage, tels que la classification, la régression et l’apprentissage par renforcement.8
L’idée centrale derrière le MAML est d’entraîner les paramètres initiaux du modèle de manière à ce que quelques mises à jour du gradient entraînent un apprentissage rapide sur une nouvelle tâche. L’objectif est de déterminer les paramètres du modèle qui sont sensibles aux changements dans une tâche, de sorte que des modifications mineures de ces paramètres entraînent des améliorations majeures de la fonction de perte de cette tâche. La métaoptimisation entre les tâches est effectuée à l’aide de la descente de gradient stochastique (« stochastic gradient descent» ou SGD).8
Contrairement à la descente de gradient, qui calcule des dérivées pour optimiser les paramètres d’un modèle pour une certaine tâche, le MAML calcule des dérivées secondes pour optimiser les paramètres initiaux d’un modèle pour une optimisation spécifique à une tâche. Une version modifiée du méta-apprentissage indépendant du modèle, connue sous le nom de MAML de premier ordre ou FOMAML (« first-order model-agnostic meta learning »), omet les dérivées secondaires pour un processus de calcul moins coûteux.8