La conception décentralisée de l’apprentissage fédéré peut renforcer la diversité des données et atténuer les biais. Cependant, cela signifie également que les données ne sont pas distribuées de manière identique et qu’elles peuvent être déséquilibrées. Certains appareils peuvent avoir plus de données que d’autres, ce qui oriente le modèle global vers ces nœuds à forte densité de données.
Pour remédier à cette hétérogénéité statistique, on emploie des méthodes ou des techniques d’échantillonnage qui prennent en compte la variation de la distribution en regroupant les nœuds avec des distributions de données similaires pendant l’entraînement du modèle, ainsi que des algorithmes d’optimisation tels que FedProx, destiné aux réseaux hétérogènes.
L’hétérogénéité des systèmes est également un problème, les appareils ayant des capacités de calcul différentes. Un entraînement local adaptatif peut être appliqué pour personnaliser l’entraînement du modèle en fonction de ce qu’un nœud peut gérer.