O design descentralizado do aprendizado federado pode reforçar a diversidade de dados, que pode ajudar a mitigar o viés. No entanto, isso também significa que os dados não são distribuídos de forma idêntica e podem ser desequilibrados. Alguns dispositivos podem ter mais dados do que outros, distorcendo o modelo global para esses nós com muitos dados.
Algumas maneiras de lidar com essa heterogeneidade estatística incluem metodologias de amostragem ou técnicas que levam em consideração a variação na distribuição, nós em clusters com distribuições de dados semelhantes durante o treinamento de modelos e algoritmos de otimização, como o FedProx, que é direcionado para redes heterogêneas.
A heterogeneidade dos sistemas também é um problema, com dispositivos tendo diferentes recursos de computação. O treinamento local adaptativo pode ser aplicado para personalizar o treinamento de modelos de acordo com o que um nó pode manipular.