Qu’est-ce que la télémétrie ?

Vue aérienne d’un bâtiment futuriste

Qu’est-ce que la télémétrie ?

La télémétrie est la collecte et la transmission automatisées des données et mesures provenant de sources disséminées ou distantes vers un système central à des fins de surveillance d’analyse et d’optimisation des ressources.

La télémétrie joue un rôle clé dans divers secteurs, notamment la santé, l’aéronautique, l’automobile et les technologies de l’information (TI), donnant aux entreprises des informations importantes sur la performance des systèmes, le comportement des utilisateurs, la sécurité et l’efficacité opérationnelleDans les secteurs qui dépendent d’actifs physiques, tels que l’agriculture, les services publics et les transports, les entreprises utilisent la télémétrie pour mesurer la température, la pression atmosphérique, le mouvement ou encore la luminosité. Dans le domaine de la santé, les systèmes de télémétrie permettent de surveiller le rythme cardiaque, la pression artérielle et le niveau d’oxygène.

Dans les deux cas, les instruments physiques et les capteurs collectent des données réelles et les envoient à un référentiel central. Les données sont souvent transmises à l’aide d’un protocole de communication spécialisé tel que Modbus, PROFINET, OPC Unified Architecture or EtherNet/IP, en vue d’une analyse plus approfondie.

Cependant, les capteurs physiques ne sont pas conçus pour collecter des indicateurs de performance numérique tels que le taux d’erreur, l’utilisation de la mémoire, les temps de réponse, le temps de fonctionnement et la latence. Les équipes informatiques s’appuient sur l’instrumentation des appareils, souvent par le biais d’agents logiciels, c’est-à-dire des capteurs numériques programmés pour surveiller et collecter les données système pertinentes de manière autonome. Ces données sont souvent structurées en indicateurs, événements, journaux et traces (MELT), chacun offrant une vue différente sur le comportement du système, les workflows et la performance.

Les frontières entre les systèmes de télémétrie physiques et numériques commencent à s’estomper, d’autant plus que les entreprises sont toujours plus nombreuses à adopter des stratégies de transformation numérique qui visent à intégrer la technologie dans tous les aspects de leur activité.

Par exemple, un secteur traditionnellement physique comme la fabrication peut utiliser les capteurs pour mesurer la consommation d’énergie, contrôler la qualité et évaluer les conditions environnementales. Parallèlement, il peut s’appuyer sur des agents logiciels pour assurer un suivi avancé des actifs, une maintenance préventive et la surveillance des flux de production. C’est pourquoi cet article porte principalement sur la télémétrie informatique et son rôle croissant dans les environnements d’entreprise modernes.

La télémétrie informatique comporte cinq étapes clés :

  1. Collecter indicateurs, événements, journaux et traces à partir de sources disparates à l’aide de capteurs ou d’agents logiciels

  2. Transmettre ces données vers un référentiel central ou un routeur par Wi-Fi, satellite, radio ou un autre moyen de communication

  3. Traiter et organiser les données entrantes afin de faciliter l’interrogation

  4. Conserver les données à l’aide d’une solution de stockage comme une base de données de séries chronologique, un entrepôt de données ou un data lake

  5. Analyser, interpréter et visualiser les données pour prendre des décisions métier plus éclairées, souvent à l’aide d’une plateforme d’observabilité

Une stratégie de télémétrie efficace permettra à l’entreprise d’assurer une Full Stack Observability (comprendre l’état interne de la pile technologie de bout en bout en fonction de ses productions externes).

La télémétrie est également une composante majeure de l’Internet des objets (IdO), un cadre qui équipe les appareils de capteurs avancés, de logiciels et d’une connectivité réseau, pour leur permettre de communiquer et d’échanger des données au sein du système.

Les dernières actualités technologiques, étayées par des avis d’experts

Restez au fait des tendances les plus étonnantes du secteur dans le domaine de l’IA, de l’automatisation, des données et bien d’autres avec la newsletter Think. Consultez la Déclaration de confidentialité d’IBM.

Merci ! Vous êtes abonné(e).

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

Comment les systèmes de télémétrie collectent-ils et transmettent-ils les données ?

Les systèmes de télémétrie varient selon les secteurs et la complexité des systèmes. Les plateformes traditionnelles utilisent des appareils d’enregistrement, historiquement appelés télémètres, pour collecter des données auprès ou à proximité d’un équipement. Ces informations sont traitées, modifiées et parfois converties de l’analogique au numérique, dans un processus appelé conditionnement des signaux.

Ensuite, un multiplexeur combine plusieurs flux de données pour obtenir un signal composite qui permet aux données de circuler plus efficacement. Ce signal combiné est ensuite transmis à une station de réception distante par radio, satellite ou par une autre forme de communication. Enfin, un démultiplexeur analyse les signaux et les décompose en fils disparates à des fins d’analyse.

La télémétrie fonctionne différemment dans les environnements informatiques modernes. Au lieu de s’appuyer sur des capteurs physiques, les systèmes axés sur les technologies de l’information utilisent des agents logiciels, c’est-à-dire des programmes légers qui s’exécutent en même temps que les services et les applications pour capter les indicateurs pertinents. Dans les environnements Kubernetes, ces agents opèrent souvent dans un conteneur séparé, situé dans le même cluster que les services qu’ils surveillent. D’autres configurations peuvent utiliser des kits de développement logiciel (SDK) pour intégrer les agents aux applications, ou encore des API personnalisées pour faciliter le transfert de données.

Une fois collectées, les données sont acheminées par un pipeline de télémétrie, qui peut normaliser les données, filtrer le bruit, ajouter des métadonnées (par exemple, des étiquettes d’environnement et de géolocalisation) et masquer les informations sensibles afin d’assurer la conformité. Ces données affinées sont ensuite standardisées au format JSON ou OpenTelemetry Protocol (OTLP), par exemple.

Ensuite, elles sont acheminées intelligemment vers un ou plusieurs composants back-end (les composants côté serveur d’un système logiciel : serveurs, bases de données et logique d’application, par exemple) via gRPC, HTTP ou un autre protocole de transport. Le back-end est chargé de stocker ces données, de les analyser, de les interpréter et de les présenter sous forme de tableaux de bord, d’alertes, de recommandations et plus encore.

Un seul et même système de télémétrie peut être utilisé pour gérer l’ensemble du workflow, de la collecte à l’analyse. Parfois, en particulier dans les environnements multicloud et hybrides modernes, les entreprises peuvent toutefois utiliser plusieurs systèmes de télémétrie spécialisés pour gérer différentes parties du pipeline d’observabilité.

IBM DevOps

Qu’est-ce que le DevOps ?

Andrea Crawford présente le DevOps, démontre sa valeur, et explique de quelle façon les pratiques et les outils DevOps vous aident à faire progresser vos applications dans l’ensemble du pipeline de livraison logiciel, de l’idéation à la production. Dirigé par des leaders d’opinion d’IBM, le programme a pour but d’aider les chefs d’entreprise à acquérir les connaissances nécessaires pour donner la priorité aux investissements dans l’IA capables de stimuler la croissance.

Quels sont les principaux types de données de télémétrie ?

En informatique, les types de télémétrie les plus courants sont les indicateurs, événements, journaux et traces, souvent désignés collectivement comme données « MELT ». Les entreprises peuvent utiliser une plateforme d’observabilité pour combiner et analyser ces indicateurs, afin d’obtenir une vue complète de la sécurité de la plateforme, du comportement des utilisateurs, de l’efficacité du système, etc.

Indicateurs

Les indicateurs sont des mesures numériques qui permettent d’évaluer l’état ou la performance du système. Parmi les exemples, citons le taux de requêtes, le débit réseau, le temps de réponse des applications, le taux de conversion utilisateur et l’utilisation de l’unité centrale.

Événements

Les événements sont des faits distincts qui se produisent dans le système. Ils comportent souvent un horodatage qui indique leur début et leur fin. Citons comme exemples les notifications d’alerte, les tentatives de connexion utilisateur, les interruptions de service, les échecs de paiement et les modifications apportées à la configuration.

Journaux

Contrairement aux événements, qui ne signalent que certains incidents, les journaux fournissent un enregistrement continu et chronologique du comportement du système. Parmi les exemples, citons les redémarrages, les requêtes de base de données, les historiques d’accès aux fichiers et les étapes d’exécution du code. Les journaux sont souvent utilisés pour identifier et résoudre les erreurs. En effet, ils permettent aux équipes informatiques de déterminer le moment précis où les défaillances sont survenues.

Traces

Les traces reflètent le flux de bout en bout d’une requête ou d’une transaction utilisateur dans un environnement distribué ou de type microservices, avec un horodatage pour chaque étape. Parmi les exemples, citons les appels API et HTTP, les requêtes de base de données et les paiements e-commerce. Les traces permettent d’identifier les goulots d’étranglement et fournissent des informations sur l’expérience globale de l’utilisateur.

Autres types de télémétrie

Si MELT illustre l’étendue des données télémétriques dont disposent les entreprises, il existe aussi d’autres types de données, qui n’entrent pas dans ce cadre, mais qui jouent un rôle critique dans l’observabilité. Les différences entre ces types de données de télémétrie ne sont pas toujours nettes, et il peut y avoir recoupement. Par exemple, la latence peut être considérée à la fois comme un indicateur et comme un point de données de télémétrie du réseau. Les autres types de données de télémétrie sont les suivants : 

  • La télémétrie de géolocalisation s’appuie sur des capteurs ou des récepteurs GPS pour suivre la position géographique d’une personne ou d’un objet. Parmi les applications, citons la gestion de flotte de transport, les services d’urgence, le suivi de la faune et la sécurité des travailleurs.

  • La télémétrie réseau fournit des informations en temps réel sur le trafic, la sécurité et la performance du réseau en suivant l’utilisation de la bande passante, le taux de perte de paquets, la performance des API et les données SNMP (Simple Network Management Protocol), à savoir les informations relatives aux modems, routeurs, serveurs et autres appareils connectés.

  • La télémétrie de sécurité identifie les comportements suspects et les vulnérabilités en examinant les journaux d’authentification, les journaux de pare-feu, les requêtes DNS, les alertes de détection d’intrusion et les données de détection et de réponse aux menaces sur les terminaux (EDR) .

  • La télémétrie utilisateur permet de suivre les schémas d’utilisation des applications, les journaux d’erreurs, la durée des sessions, les requêtes de recherche et d’autres types de comportement utilisateur. Ces données sont utilisées pour optimiser les applications et les services, comprendre les tendances client et assurer la sécurité du réseau.

  • La télémétrie de profilage indique la manière dont les logiciels et les applications utilisent l’unité centrale, la mémoire et d’autres ressources de l’ordinateur au fil du temps. Elle fournit des données de performance détaillées pour aider les développeurs à identifier la source des ralentissements, ainsi que les parties du code base les plus utilisées.

  • La télémétrie cloud collecte les données de performance, de suivi des coûts et d’utilisation des services cloud. Il peut s’agir de l’activité de stockage, des changements de configuration, des événements liés à l’identité et aux accès ou encore des décisions de routage.

  • La télémétrie IA permet de suivre la performance des modèles pendant l’entraînement et la production. Les indicateurs clés concernent la dérive des modèles (suivre la cohérence et la précision des modèles de machine learning au fil du temps), les scores de confiance (déterminer si les prédictions du modèle sont fiables) et la latence d’inférence (le temps nécessaire au modèle pour répondre à une requête). Ces indicateurs aident les développeurs à renforcer la fiabilité, l’équité et la performance des modèles.

Télémétrie, surveillance et observabilité

La télémétrie est le processus de collecte et de transmission de différents types de données provenant de systèmes et de composants distribués. Il s’agit de la base sur laquelle repose la visibilité de l’entreprise, offrant des informations sur le comportement et la performance de chaque composant. Les entreprises s’appuient en fin de compte sur la télémétrie pour alimenter leurs systèmes de surveillance et d’observabilité.

La surveillance désigne la manière dont les entreprises utilisent les données de télémétrie qu’elles ont collectées. Par exemple, un système de surveillance télémétrique peut proposer des tableaux de bord pour permettre aux équipes DevOps de visualiser la performance du système. L’automatisation des alertes, quant à elle, se charge d’envoyer des notifications chaque fois qu’un événement notable, tel qu’une panne de réseau ou une violation de données, a lieu.

L’observabilité consiste à interpréter les données opérationnelles pour comprendre la corrélation entre flux de données, état et performance du système. L’observabilité ne consiste pas uniquement à analyser les données actuelles, mais aussi à détecter les tendances générales, afin d’informer et d’optimiser la prise de décision, ainsi que l’utilisation des ressources en entreprise. Les plateformes d’observabilité modernes intègrent généralement des fonctions de télémétrie et de surveillance. L’observabilité joue également un rôle clé dans la prise en charge des technologies émergentes comme l’IA agentique et les plateformes d’IA générative.

Solutions de télémétrie informatique courantes

Le cadre open source OpenTelemetry (OTel) fait partie des plateformes de télémétrie les plus utilisées. Il est notamment apprécié pour sa flexibilité (sa conception modulaire favorise la personnalisation), son accessibilité (ses composants principaux sont disponibles gratuitement) et sa compatibilité (il est compatible avec plusieurs fournisseurs et langages de programmation). OTel ne permet ni le stockage ni la visualisation des données de télémétrie. En revanche, il fournit un ensemble normalisé de SDK, d’API et d’autres outils destinés à la collecte et à la transmission de données.

Près de la moitié des entreprises informatiques utilisent OTel, et 25 % prévoient de le mettre en œuvre, selon un rapport publié en 2025 par Elastic, une société spécialisée dans l’IA. Les entreprises disposant d’un système d’observabilité mature sont plus susceptibles d’utiliser OTel que celles dotées de workflows d’observabilité moins développés. IBM Instana, Datadog, Grafana, New Relic, Dynatrace et Splunk offrent chacun une prise en charge OTel robuste.

Prometheus, un cadre open source alternatif, présente certaines similitudes avec OTel. La Cloud Native Computing Foundation (CNCF), filiale de l’association à but non lucratif Linux Foundation, héberge les deux solutions. Contrairement à OTel, Prometheus a des capacités de stockage et de visualisation des données. Mais sa portée est légèrement plus restreinte : alors qu’OTel peut collecter différents types de données de télémétrie, Prometheus se concentre exclusivement sur les indicateurs.

Qu’est-ce que la normalisation de la télémétrie ?

La normalisation des données de télémétrie consiste à convertir les indicateurs pour obtenir un format standardisé, que les outils analytiques pourront stocker, lire et interpréter. Il existe deux approches principales :

Schéma à l’écriture

Avec cette approche du traitement, toutes les données doivent correspondre à un format prédéfini afin de pouvoir être stockées et récupérées. Si le schéma à l’écriture est très fiable, il peut être difficile à mettre en œuvre dans les architectures informatiques modernes qui comportent plusieurs systèmes, chacun ayant ses propres formats et processus de classement.

Le schéma à l’écriture est couramment utilisé dans les référentiels de données centralisés appelés entrepôts de données. Ces solutions de stockage permettent de conserver de grandes quantités de données de télémétrie, à condition que ces dernières soient structurées et organisées dans un format prédéfini. Si les entrepôts de données peuvent s’avérer chers à dimensionner et à gérer, ils sont néanmoins parfaitement adaptés aux workflows de Business Intelligence et d’analyse de données, entre autres, dont la cohérence et la fiabilité sont des priorités absolues.

Schéma à la lecture

Cette approche permet de collecter les données dans leur format d’origine et de les convertir uniquement lorsqu’un utilisateur les récupère. Bien que plus complexe sur le plan opérationnel, le schéma à la lecture gère les données dans divers formats, ce qui le rend plus flexible que le schéma à l’écriture.

Le schéma à la lecture est courant dans les data lakes, qui ressemblent aux entrepôts de données, mais qui peuvent stocker et gérer tant les données structurées que celles semi-structurées et non structurées. Les data lakes sont appréciés pour leur rentabilité et leur agilité, ce qui les rend particulièrement adaptés aux outils d’analyse alimentés par le machine learning. Mais sans une gouvernance solide, ils peuvent être difficiles à gérer, avec pour conséquence un manque de vérification ou de cohérence des données.

Data Lakehouse

Une alternative émergente appelée « data lakehouse » vise à combiner les meilleurs aspects des data lakes et des entrepôts de données. Le cadre prend en charge le schéma à la lecture pour les données non structurées, tout en permettant le schéma à l’écriture pour les données structurées. Cette approche hybride aide les entreprises à assurer cohérence et précision tout en bénéficiant de la flexibilité et de l’agilité des data lakes.

Défis de la télémétrie

Les données télémétriques peuvent être difficiles à collecter, à gérer et à stocker, en particulier dans les environnements hybrides et multicloud modernes. Quelques exemples de défis courants :

Compatibilité

Les appareils et services peuvent utiliser différents formats, protocoles et modèles pour enregistrer les données de télémétrie, ce qui limite leur capacité à communiquer avec le référentiel central. Par exemple, un dispositif médical à distance utilisera un protocole propriétaire pour mesurer les paramètres vitaux du patient, tandis que le système de télésanté avec lequel il communique s’appuiera sur un protocole standard. Cette incompatibilité peut obliger l’équipe DevOps à créer un logiciel intermédiaire, personnalisé pour faciliter la connexion.

Les incompatibilités peuvent également empêcher les entreprises de s’assurer une visibilité sur chaque couche de l’architecture, ce qui entraîne des silos de données, des obstacles à l’innovation et des lacunes en matière d’expérience client. Pour y remédier, les entreprises peuvent mettre en place des formats de données cohérents, ainsi que des garde-fous stricts, procéder régulièrement à des audits et appliquer la synchronisation et le contrôle de version à l’ensemble des composants.

Stockage

Si les données sont redondantes et désordonnées, elles peuvent entraîner des coûts de stockage non maîtrisés ou des analyses erronées en raison d’un bruit excessif. Une gouvernance solide permet d’atténuer ces risques.

Par exemple, les équipes DevOps peuvent mettre en œuvre des politiques de conservation des données, pour que ces dernières soient automatiquement supprimées après un certain laps de temps. L’échantillonnage (conservation d’un échantillon représentatif d’un jeu de données), l’agrégation (calcul de la moyenne d’un jeu de données) et le stockage hiérarchisé (déplacement des données plus anciennes vers une solution de stockage plus lente et plus abordable) permettent également de réduire la charge et le coût de stockage.

Conformité

Les entreprises, en particulier celles issues des secteurs santé, juridique et Ressources humaines, où des données personnelles sont fréquemment stockées et échangées, sont soumises à des réglementations strictes en matière de conservation, de protection et de souveraineté des données. La conformité peut constituer un défi, compte tenu du volume et de l’échelle des données de télémétrie que les équipes DevOps doivent collecter et analyser aujourd’hui.

Pour résoudre ce défi, les entreprises peuvent mettre en œuvre des pratiques de chiffrement strictes et des contrôles par token protégeant les données sensibles contre les risques de violation de la sécurité et de divulgation accidentelle. Les audits permettent aux entreprises d’examiner leurs pipelines de télémétrie afin de détecter les vulnérabilités à un stade précoce. De même, les systèmes de filtrage permettent d’identifier et de supprimer les données non conformes avant qu’elles ne parviennent aux utilisateurs. Enfin, les entreprises peuvent assurer leur conformité grâce à des cadres de gouvernance solides, qui appliquent efficacement les politiques de conservation et de résidence des données.

Incohérence des données

Le volume de données généré par les systèmes de télémétrie peut submerger les entreprises, masquer les tendances importantes et brouiller les informations relatives à la sécurité et à l’efficacité du système. Dans le même temps, la baisse de vigilance causée par un nombre excessif d’alertes peut empêcher les équipes DevOps d’accomplir les tâches prioritaires, et exercer une pression inutile sur les ressources informatiques. Pour y remédier, les entreprises peuvent automatiser la réponse aux alertes, filtrer les données redondantes en périphérie, mettre en place des conventions d’étiquetage et de nommage strictes et imposer des quotas et des limites de ressources.

Avantages de la télémétrie

La télémétrie permet aux entreprises de transformer les données en informations exploitables pour améliorer la performance, l’efficacité des workflows, la budgétisation, l’expérience client et plus encore.

Efficacité opérationnelle

Les données de télémétrie aident les équipes DevOps à identifier les composants et les systèmes qui fonctionnent bien, et ceux qui doivent être mis à jour, reconfigurés ou remplacés. Elles favorisent également la maintenance prédictive, qui consiste pour les équipes à analyser les tendances historiques et les données de performance en temps réel pour entretenir les équipements de manière proactive, et prévenir ainsi les défaillances critiques. Les systèmes de télémétrie permettent également de trier, d’organiser et de supprimer efficacement les données obsolètes ou non pertinentes, afin de réduire le gaspillage opérationnel.

Contrairement aux données analysées manuellement, les données de télémétrie sont collectées automatiquement et en temps réel. Ce processus permet aux entreprises de résoudre les problèmes avant qu’ils n’entraînent des temps d’arrêt ou des pannes coûteuses. Les systèmes de télémétrie permettent également aux entreprises de suivre l’impact des mises à jour et des innovations sur le système avant de les déployer à l’échelle.

Amélioration de la sécurité

Les systèmes de télémétrie offrent une visibilité en temps réel sur le comportement des utilisateurs, des applications et des systèmes. La surveillance continue permet d’établir une base de référence pour la performance, facilitant ainsi la détection d’anomalies telles que le trafic réseau inhabituel, les tentatives de connexion échouées répétées, les installations inattendues et d’autres activités suspectes. La télémétrie permet également de détecter le shadow IT (composants non autorisés fonctionnant en dehors de la gouvernance centralisée), afin d’éliminer les points d’entrée exploitables par les pirates.

Une politique de chiffrement robuste permet de protéger les données tout au long du pipeline de télémétrie, tandis que l’application des règles de conservation garantit que les données privées ne sont conservées qu’en cas de nécessité. Les contrôles d’accès basés sur les rôles permettent aux parties prenantes concernées d’accéder aux données privées, tandis que les pistes d’audit et les journaux fournissent un historique détaillé des actions système récentes, pour assurer une investigation des incidents de sécurité plus précise et plus efficace.

Évolutivité

La télémétrie permet aux équipes de mieux comprendre l’utilisation du système au fil du temps, afin d’adapter dynamiquement les ressources aux exigences changeantes en matière de workloads. Les équipes peuvent utiliser ces informations pour optimiser l’utilisation des ressources et maîtriser les coûts, tout en garantissant un environnement stable et sécurisé aux clients.

Prise de décision optimisée

Les plateformes de télémétrie aident les équipes à synthétiser les données de l’entreprise pour prendre des décisions plus éclairées, axées sur les données. Les plateformes d'observabilité s’appuient sur les données de télémétrie pour analyser l’intégrité du système, les parcours client, l’engagement des utilisateurs et d’autres indicateurs clés de performance. Surtout, la télémétrie consiste à collecter et à intégrer les données provenant d’applications et de systèmes distribués pour offrir aux entreprises une vision globale de l’impact qu’ont les décisions sur l’environnement, et non seulement sur ses différents composants.

Solutions connexes
Accélération d’IBM DevOps

Automatisez la fourniture de logiciels pour toutes les applications sur site, dans le cloud ou sur mainframe.

Découvrir DevOps Accelerate
Solutions DevOps

Utilisez les logiciels et outils DevOps pour créer, déployer et gérer des applications cloud natives sur de nombreux appareils et environnements.

Découvrir les solutions DevOps
Services de conseil cloud 

Déverrouillez de nouvelles fonctionnalités et stimulez l’agilité de votre entreprise grâce aux services de conseil d’IBM Cloud. Découvrez comment co-créer des solutions, accélérer la transformation numérique et optimiser les performances grâce à des stratégies de cloud hybride et à des partenariats d’experts.

Services cloud
Passez à l’étape suivante

Exploitez le potentiel du DevOps pour créer, tester et déployer des applications cloud natives sécurisées avec une intégration et une livraison continues.

Découvrir les solutions DevOps Découvrir le DevOps en action