Rappelons que l'edge computing consiste à placer et à exécuter les charges de travail des applications aussi près physiquement que possible de l'emplacement de création des données. Il peut s'agir par exemple des emplacements où les utilisateurs interagissent avec des appareils tels que les téléphones mobiles ou les lecteurs de codes à barres, ou de ceux où des appareils IoT tels que des caméras de sécurité ou des capteurs de machines collectent et génèrent des données.
En termes simples, l'edge computing permet d'« amener le calcul jusqu'aux données », en rapprochant le traitement de l'emplacement où les données sont créées. En procédant de cette façon, il évite d'envoyer les données à traiter dans un centre de données cloud centralisé, puis de les renvoyer aux emplacements où des réponses sont nécessaires pour l'aide à la décision ou l'automatisation des processus. L'edge computing se révèle ainsi de plus en plus essentielle pour les applications traitant des volumes de données gigantesques à très grande vitesse ou en temps réel, lorsqu'il est vital d'avoir un faible temps d'attente.
Vous pouvez mettre en œuvre l'edge computing sans disposer d'une architecture de cloud distribué. Cependant, un cloud distribué facilite grandement le déploiement et la gestion des applications en périphérie.
Supposons que vous exploitez plusieurs usines de fabrication. Chacune dispose de son propre serveur de périphérie, hébergé par différents fournisseurs de services cloud et traitant les données générées par des milliers de capteurs. Avec un cloud distribué, vous pouvez tout contrôler et gérer à partir d'un seul plan de contrôle, d'un seul tableau de bord, d'un seul ensemble d'outils, et d'un seul cloud : déploiement et gestion des clusters Kubernetes, mises à jour de sécurité, surveillance des performances. Sans un cloud distribué, ces tâches et ces outils peuvent être différents selon l'emplacement où réside le serveur de périphérie.