¿Qué es la telemetría?

Vista aérea de un edificio futurista

¿Qué es la telemetría?

La telemetría es la recopilación y transmisión automatizadas de datos y mediciones desde fuentes distribuidas o remotas a un sistema central para la monitorización, el análisis y la optimización de recursos.

La telemetría desempeña un papel clave en diversos sectores, como el sanitario, el aeroespacial, el automovilístico y el de la tecnología de la información (TI), ya que proporciona a las organizaciones conocimiento valioso sobre el rendimiento del sistema, el comportamiento de los usuarios, la seguridad y la eficiencia operativaEn sectores que dependen de activos físicos, como la agricultura, los servicios y el transporte, las organizaciones utilizan la telemetría para recoger medidas como la temperatura, la presión del aire, el movimiento y la luz. En el cuidado de la salud, los sistemas de telemetría pueden rastrear la frecuencia cardíaca, la presión arterial y los niveles de oxígeno.

En ambos casos, los instrumentos físicos y los sensores recopilan datos del mundo real y los envían a un repositorio central. Los datos a menudo se transmiten utilizando un protocolo de comunicación especializado como Modbus, PROFINET, OPC Unified Architecture o EtherNet/IP para su posterior análisis.

Sin embargo, los sensores físicos no están diseñados para captar indicadores digitales de rendimiento como las tasas de error, el uso de la memoria, los tiempos de respuesta, el tiempo de actividad y la latencia. En su lugar, los equipos de TI confían en la instrumentación de los dispositivos, a menudo a través de agentes basados en software: sensores digitales que se programan para supervisar y recopilar de forma autónoma los datos relevantes del sistema. Estos datos suelen estructurarse como métricas, eventos, registros y rastreos (MELT), y cada uno de ellos captura una visión diferente del comportamiento del sistema, los flujos de trabajo operativos y los plazos de rendimiento.

Las líneas entre los sistemas de telemetría físicos y digitales están empezando a desdibujarse, especialmente a medida que las empresas adoptan cada vez más estrategias de transformación digital, cuyo objetivo es infundir la tecnología digital en todas las áreas de una empresa.

Por ejemplo, un sector tradicionalmente físico como la fabricación podría utilizar sensores para capturar el consumo de energía, el control de calidad y las condiciones ambientales. Al mismo tiempo, podría depender de agentes de software para el seguimiento avanzado de activos, el mantenimiento preventivo y la monitorización del flujo de producción. Por esa razón, este artículo se centra principalmente en la telemetría de TI y su papel cada vez mayor en los entornos empresariales modernos.

En esencia, la telemetría de TI implica cinco pasos clave:

  1. Recopilar métricas, eventos, registros y rastreos de fuentes remotas dispares con sensores o agentes de software

  2. Transmitir esos datos a un repositorio central o enrutador a través de wifi, satélite, radio u otro medio de comunicación

  3. Procesar y organizar los datos entrantes para que puedan consultarse fácilmente

  4. Mantener los datos con una solución de almacenamiento como una base de datos de series temporales, un almacén de datos o un data lake

  5. Analizar, interpretar y visualizar los datos para tomar decisiones empresariales mejor informadas, a menudo con la ayuda de una plataforma de observabilidad

Las estrategias eficaces de telemetría ayudan a las organizaciones a lograr la observabilidad full stack, o la capacidad de comprender el estado interno de una pila tecnológica de extremo a extremo basada en sus resultados.

La telemetría también es un componente importante del Internet de las cosas (IoT), un marco que dota a los dispositivos de sensores avanzados, software y conectividad de red, lo que les permite comunicarse e intercambiar datos en todo el sistema.

Las últimas novedades sobre tecnología, respaldadas por conocimientos de expertos

Manténgase al día sobre las tendencias más importantes e intrigantes del sector en materia de IA, automatización, datos y mucho más con el boletín Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Se ha suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

¿Cómo recopilan y transmiten datos los sistemas de telemetría?

Los sistemas de telemetría varían según el sector y la complejidad del sistema. Las plataformas tradicionales utilizan dispositivos de grabación, históricamente llamados telémetros, para recopilar datos en o cerca de un equipo. Esta información se procesa, modifica y, a veces, convierte de analógica a digital, en un proceso llamado acondicionamiento de señales.

A continuación, un multiplexor combina múltiples flujos de datos en una señal compuesta, lo que ayuda a que los datos viajen de manera más eficiente. Esta señal combinada se transmite a una estación receptora remota a través de radio, satélite u otra forma de comunicación. Por último, un demultiplexor analiza las señales y las divide en hilos dispares para prepararlas para su análisis.

La telemetría funciona de forma diferente en los entornos informáticos modernos. En lugar de depender de sensores físicos, los sistemas centrados en las TI utilizan agentes de software, programas ligeros que se ejecutan junto a los servicios y las aplicaciones para capturar las métricas relevantes. En los entornos Kubernetes, estos agentes suelen operar en un contenedor independiente dentro del mismo clúster que los servicios que supervisan. Otras configuraciones pueden utilizar kits de desarrollo de software (SDK) para integrar agentes dentro de las propias aplicaciones, o utilizar API personalizadas para facilitar las transferencias de datos.

Después de la recopilación, los datos se transportan a través de un pipeline de telemetría, que puede estandarizar los datos, filtrar el ruido, agregar metadatos (como etiquetas de entorno y geolocalización) y enmascarar información confidencial para mantener el cumplimiento. Estos datos refinados se estandarizan con un formato como JSON o OpenTelemetry Protocol (OTLP).

A continuación, se enruta de forma inteligente a uno o más backends (los componentes del lado del servidor de un sistema de software, por ejemplo, servidores, bases de datos y lógica de aplicación) a través de gRPC, HTTP u otro protocolo de transporte. El backend es responsable de almacenar estos datos, analizarlos e interpretarlos y presentarlos en forma de paneles de control, alertas, recomendaciones y más.

Un único sistema de telemetría podría utilizarse para gestionar todo el flujo de trabajo, desde la recogida hasta el análisis. Sin embargo, a veces, especialmente en entornos multinube e híbridos modernos, las organizaciones pueden utilizar varios sistemas de telemetría especializados para gestionar diferentes partes del pipeline de observabilidad.

IBM DevOps

¿Qué es DevOps?

Andrea Crawford explica qué es DevOps, su valor y cómo las prácticas y herramientas de DevOps ayudan a desarrollar las aplicaciones a lo largo de todo el proceso de entrega de software, desde la ideación hasta la producción. El plan de estudios, dirigido por los principales líderes de opinión de IBM, está diseñado para ayudar a los líderes empresariales a adquirir los conocimientos necesarios para priorizar las inversiones en IA que pueden impulsar el crecimiento.

¿Cuáles son los principales tipos de datos de telemetría?

En TI, los tipos de telemetría más comunes son las métricas, los eventos, los registros y los rastreos, que a menudo se denominan colectivamente datos "MELT". Las organizaciones pueden utilizar las plataformas de observabilidad para combinar y analizar estas métricas y obtener una imagen completa de la seguridad de la plataforma, el comportamiento de los usuarios, la eficiencia del sistema y más.

Métricas

Las métricas son medidas numéricas que indican el estado o el rendimiento del sistema. Algunos ejemplos son las tasas de solicitudes, el rendimiento de la red, los tiempos de respuesta de las aplicaciones, las tasas de conversión de usuarios y el uso de la CPU.

Eventos

Los eventos son sucesos distintos que tienen lugar dentro del sistema. A menudo incluyen marcas de tiempo que muestran cuándo comenzó un evento y cuándo finalizó. Algunos ejemplos son las notificaciones de alerta, los intentos de inicio de sesión de los usuarios, las interrupciones del servicio, los fallos en los pagos y los cambios en la configuración.

Registros

Los registros proporcionan un registro continuo y una cronología del comportamiento del sistema, a diferencia de los eventos, que solo señalan incidentes particulares. Los ejemplos incluyen reinicios, consultas a bases de datos, historiales de acceso a archivos y pasos de ejecución de código. Los registros se utilizan a menudo para solucionar problemas y depurar errores, lo que ayuda a los equipos de TI a identificar el momento preciso en que se produjo un error.

Rastreos

Los rastreos reflejan el flujo de extremo a extremo de una solicitud o transacción de usuario específica a través de un entorno distribuido o de microservicio, con marcas de tiempo para cada paso. Los ejemplos incluyen llamadas API y HTTP, consultas a bases de datos y pagos de comercio electrónico. Los rastreos pueden identificar cuellos de botella y proporcionar conocimientos sobre la experiencia del usuario.

Otros tipos de telemetría

Aunque MELT muestra la amplitud de los datos de telemetría disponibles para las empresas, hay tipos de datos adicionales que quedan fuera de este marco, pero que siguen desempeñando un papel crítico en la observabilidad. Los límites entre los tipos de telemetría no siempre están claros y puede haber cruces. Por ejemplo, la latencia puede considerarse tanto una métrica como un punto de datos de telemetría de red. Otros tipos de datos de telemetría incluyen: 

  • La telemetría de ubicación utiliza sensores o receptores GPS para rastrear la ubicación geográfica de una persona u objeto. Las aplicaciones incluyen gestión de flotas de transporte, servicios de emergencia, seguimiento de vida silvestre y seguridad de los trabajadores.

  • La telemetría de red proporciona conocimientos en tiempo real sobre el tráfico, la seguridad y el rendimiento de la red mediante el seguimiento del uso del ancho de banda, las tasas de pérdida de paquetes, el rendimiento de las API y los datos del protocolo simple de gestión de redes (SNMP) (información relacionada con módems, enrutadores, servidores y otros dispositivos conectados).

  • La telemetría de seguridad identifica comportamientos sospechosos y vulnerabilidades examinando los registros de autenticación, los registros de firewall, las consultas DNS, las alertas de detección de intrusiones y los datos de detección y respuesta de endpoints (EDR).

  • La telemetría del usuario rastrea los patrones de uso de las aplicaciones, los registros de errores, la duración de las sesiones, las consultas de búsqueda y otros tipos de comportamiento del usuario. Estos datos se utilizan para optimizar aplicaciones y servicios, comprender las tendencias de los clientes y mantener una red segura.

  • La telemetría de perfiles muestra cómo el software y las aplicaciones utilizan la CPU, la memoria y otros recursos del ordenador a lo largo del tiempo. Ofrece datos de rendimiento detallados que pueden ayudar a los desarrolladores a comprender el origen de una ralentización, así como qué partes del código base se utilizan más.

  • La telemetría de nube recopila datos de rendimiento, seguimiento de costes y uso de los servicios cloud. Estos datos pueden incluir la actividad de almacenamiento, los cambios de configuración, los eventos de identidad y acceso y las decisiones de enrutamiento.

  • La telemetría de IA puede realizar un seguimiento del rendimiento del modelo tanto durante el entrenamiento como durante la producción. Las métricas clave incluyen la desviación del modelo (seguimiento de cómo un modelo de machine learning pierde coherencia y precisión con el tiempo), puntuaciones de confianza (determinación de la confianza del modelo en sus predicciones) y latencia de inferencia (el tiempo que tarda el modelo en responder a una consulta) . Estas métricas pueden ayudar a los desarrolladores a mejorar la fiabilidad, la equidad y el rendimiento del modelo.

Telemetría vs. monitorización vs. observabilidad

La telemetría es el proceso de recopilación y transmisión de múltiples tipos de datos desde sistemas y componentes distribuidos. Es la base de las capacidades de visibilidad de una organización, ya que ofrece conocimiento sobre el comportamiento y el rendimiento de cada componente. En última instancia, las empresas confían en la telemetría para impulsar sus sistemas de monitorización y observabilidad.

La monitorización se refiere a la forma en que las organizaciones utilizan los datos de telemetría que han recopilado. Por ejemplo, un sistema de monitorización de telemetría podría usar paneles de control para ayudar a los equipos de DevOps a visualizar el rendimiento del sistema. Mientras tanto, las automatizaciones de alertas pueden enviar notificaciones cada vez que se produce un evento notable, como una interrupción de la red o una vulneración de datos.

La observabilidad implica interpretar los datos operativos y entender cómo los diferentes flujos de datos se correlacionan con el estado y el rendimiento del sistema. La observabilidad no solo analiza los datos actuales, sino que también detecta tendencias más amplias, utilizándolas para informar y optimizar la toma de decisiones empresariales y el uso de recursos. Las plataformas de observabilidad modernas suelen incluir funciones de telemetría y monitorización integradas. La observabilidad también desempeña un papel clave en el apoyo a las tecnologías emergentes, incluida la IA agéntica y las plataformas de IA generativa.

Soluciones comunes de telemetría de TI

Un marco de código abierto llamado OpenTelemetry (OTel) se encuentra entre las plataformas de telemetría más populares, valorado por su flexibilidad (su diseño modular fomenta la personalización), asequibilidad (sus componentes principales están disponibles sin costo alguno) y compatibilidad (es compatible con múltiples proveedores y programación idiomas). OTel no gestiona el almacenamiento ni la visualización de telemetría. En su lugar, proporciona un conjunto estandarizado de SDK, API y otras herramientas orientadas a la recopilación y transmisión de datos.

Casi la mitad de las organizaciones de TI utilizan OTel, mientras que un 25 % adicional planea implementar el marco en el futuro, según un informe de 2025 de la empresa de IA Elastic. Las organizaciones con sistemas de observabilidad maduros tienen más probabilidades de utilizar OTel, en comparación con las empresas con flujos de trabajo de observabilidad menos desarrollados. IBM Instana, Datadog, Grafana, New Relic, Dynatrace y Splunk cuentan con un sólido soporte para OTel.

Un marco alternativo de código abierto llamado Prometheus comparte algunas similitudes con OTel. La Cloud Native Computing Foundation (CNCF), una subsidiaria de la Linux Foundation sin fines de lucro, aloja ambas soluciones. A diferencia de OTel, Prometheus tiene algunas capacidades de almacenamiento de datos y visualización de datos. Pero tiene un alcance ligeramente más limitado: mientras que OTel puede recopilar diferentes tipos de datos de telemetría, Prometheus trabaja exclusivamente con métricas.

¿Qué es la normalización de telemetría?

La normalización de la telemetría es el proceso de convertir métricas en un formato estandarizado para que las herramientas de analytics puedan almacenar, leer y interpretarlas. Existen dos enfoques principales:

Esquema en escritura

En este proceso de datos, todos los datos deben coincidir con un formato predefinido antes de que puedan almacenar y recuperarse. Si bien el esquema en escritura es altamente confiable, puede ser difícil de implementar en arquitecturas de TI modernas, que involucran múltiples sistemas, cada uno con formatos y procesos de archivo distintos.

El esquema en escritura se usa comúnmente en repositorios de datos centralizados llamados almacenes de datos. Estas soluciones de almacenamiento pueden mantener grandes cantidades de datos de telemetría, pero solo si esos datos están estructurados y organizados en un formato predefinido. Los almacenes de datos pueden resultar costosos de ampliar y mantener, pero son ideales para la inteligencia empresarial, el análisis de datos y otros flujos de trabajo en los que la coherencia y la fiabilidad son prioridades absolutas.

Esquema en lectura

Este enfoque recopila datos en su formato original y los convierte solo cuando un usuario los recupera. Aunque resulta más complejo desde el punto de vista operativo, el esquema de lectura puede manejar datos en múltiples formatos, lo que lo hace más flexible que el esquema en escritura.

El esquema en lectura es común en los data lakes, que son como los almacenes de datos, pero pueden almacenar y gestionar tanto datos semiestructurados como datos no estructurados junto con datos estructurados. Los data lakes son valorados por su eficiencia de costes y agilidad, lo que los hace especialmente ideales para herramientas de análisis basadas en machine learning. Pero sin un gobierno sólido, pueden ser difíciles de gestionar, lo que da lugar a datos no verificados o incoherentes.

Data lakehouse

Una alternativa emergente llamada lakehouse de datos tiene como objetivo combinar los mejores elementos de los data lakes y los almacenes de datos. El marco admite el esquema en lectura para los datos no estructurados, al tiempo que permite el esquema en escritura para los datos estructurados. Este enfoque híbrido ayuda a las organizaciones a mantener la coherencia y la precisión al tiempo que obtienen un beneficio de la flexibilidad y la agilidad de data lake.

Desafíos de telemetría

Los datos de telemetría pueden ser difíciles de recopilar, mantener y almacenar, especialmente en entornos híbridos y multinube modernos. Entre los retos más comunes se incluyen:

Compatibilidad

Los dispositivos y servicios pueden utilizar diferentes formatos, protocolos y modelos para registrar datos de telemetría, lo que limita su capacidad de comunicarse con el repositorio central. Por ejemplo, un dispositivo médico remoto podría utilizar un protocolo propio para medir las constantes vitales de un paciente, mientras que el sistema sanitario electrónico con el que se comunica utiliza un protocolo estándar. Esta incompatibilidad puede requerir que un equipo de DevOps cree middleware personalizado para facilitar la conexión.

Las incompatibilidades también pueden dificultar que las organizaciones mantengan la visibilidad de cada capa arquitectónica, lo que genera silos de datos, obstáculos a la innovación y brechas en la experiencia del cliente. Las empresas pueden abordar este desafío estableciendo formatos de datos consistentes, implementando medidas de seguridad estrictas, realizando auditorías de rutina y aplicando la sincronización y el control de versiones en todos los componentes.

Almacenamiento

Los datos redundantes y desordenados pueden provocar costes de almacenamiento desbocados o análisis defectuosos debido al exceso de ruido. Un gobierno sólido puede ayudar a mitigar estos riesgos.

Por ejemplo, los equipos DevOps pueden implementar políticas de retención de datos, en las que los datos se eliminan automáticamente después de un determinado periodo de tiempo. El muestreo (conservar una muestra representativa de un conjunto de datos más grande), la agregación (calcular el promedio de un conjunto de datos concreto) y el almacenamiento por niveles (trasladar los datos más antiguos a soluciones de almacenamiento más lentas y asequibles) también pueden reducir la carga de almacenamiento y los precios.

Conformidad

Las empresas, especialmente las de la sanidad, los servicios legales y los recursos humanos, en las que la información de identificación personal se almacena e intercambia con frecuencia, están sujetas a normas estrictas en materia de retención de datos, privacidad y soberanía. El cumplimiento puede ser un desafío debido al gran volumen y escala de datos de telemetría que se les pide a los equipos modernos de DevOps que recopilen y analicen.

Para abordar este desafío, las organizaciones pueden implementar prácticas de cifrado sólidas y controles de token que protejan los datos confidenciales de violaciones de seguridad y exposiciones accidentales. Las auditorías pueden ayudar a las organizaciones a revisar los procesos de telemetría y detectar vulnerabilidades en las primeras etapas del proceso. De manera similar, los sistemas de filtrado pueden identificar y eliminar datos no conformes antes de que lleguen a los usuarios. Por último, las empresas pueden mantener el cumplimiento a través de marcos de gobierno sólidos que apliquen de manera efectiva las políticas de retención y residencia de datos.

Incoherencia de datos

El volumen de datos generados por los sistemas de telemetría puede abrumar a las empresas, oscureciendo las tendencias significativas y nublando los conocimientos sobre la seguridad y la eficiencia del sistema. Mientras tanto, la fatiga por alertas provocada por el exceso de alertas puede distraer a los equipos de DevOps de completar tareas de alta prioridad y ejercer una presión innecesaria sobre los recursos. Las organizaciones pueden responder automatizando las respuestas a las alertas, filtrando los datos redundantes en el edge, estableciendo convenciones sólidas de etiquetado y nomenclatura, y aplicando cuotas y límites de recursos.

Beneficios de la telemetría

La telemetría permite a las organizaciones transformar los datos en conocimientos que se pueden ejecutar que se pueden utilizar para mejorar el rendimiento, la eficiencia del flujo de trabajo, la elaboración de presupuestos, la experiencia del cliente y más.

eficiencia operativa

Los datos de telemetría ayudan a los equipos de DevOps a identificar qué componentes y sistemas funcionan bien y cuáles deben actualizarse, reconfigurarse o sustituirse. También es compatible con el mantenimiento predictivo, cuando los equipos analizan las tendencias históricas y los datos de rendimiento en tiempo real para mantener los equipos de forma proactiva, evitando fallos críticos. Los sistemas de telemetría también clasifican, organizan y eliminan de manera eficiente datos obsoletos o irrelevantes, reduciendo el desperdicio operativo.

A diferencia del análisis manual de datos, los datos de telemetría normalmente se recopilan de forma automática y en tiempo real. Este proceso ayuda a garantizar que las empresas puedan abordar rápidamente los problemas antes de que provoquen tiempo de inactividad o fallos costosos. Los sistemas de telemetría también pueden permitir a las empresas realizar un seguimiento de cómo las actualizaciones e innovaciones afectarían al sistema antes de implementarlas a escala.

Mejora de la seguridad

Los sistemas de telemetría proporcionan visibilidad en tiempo real del comportamiento de los usuarios, las aplicaciones y los sistemas. La monitorización continua ayuda a establecer una línea base de rendimiento, lo que facilita la detección de anomalías, como tráfico de red inusual, intentos fallidos repetidos de inicio de sesión, instalaciones inesperadas y otras actividades sospechosas. La telemetría también puede exponer la TI invisible (componentes no autorizados que actúan fuera del gobierno centralizado), lo que ayuda a eliminar posibles puntos de entrada para los atacantes.

Las políticas de cifrado sólidas pueden proteger los datos en todo el pipeline de telemetría, mientras que la aplicación de la retención ayuda a garantizar que los datos privados se conserven solo cuando sea necesario. Los controles de acceso basados en roles permiten a los stakeholders pertinentes acceder a datos privados, auditorías y registros proporcionan un historial detallado de las acciones recientes del sistema, lo que permite investigaciones de seguridad más precisas y eficientes.

Escalabilidad

La telemetría proporciona a los equipos un conocimiento más profundo del uso del sistema a lo largo del tiempo, lo que les permite escalar dinámicamente los recursos para adaptarse a las cambiantes demandas de la carga de trabajo. Los equipos pueden utilizar estos conocimientos para optimizar la utilización de los recursos y controlar los costes, al miso tiempo que mantienen un entorno estable y seguro para los clientes.

Toma de decisiones más inteligente

Las plataformas de telemetría ayudan a los equipos a sintetizar los datos de toda la organización para tomar decisiones empresariales mejor informadas y basadas en datos. Las plataformas de observabilidad se basan en datos de telemetría para analizar la salud del sistema, los recorridos de los clientes, el compromiso de los usuarios y otros indicadores clave de rendimiento. Fundamentalmente, la telemetría recopila e integra datos de aplicaciones y sistemas distribuidos, lo que proporciona a las empresas una visión holística de cómo las decisiones empresariales afectan a todo el entorno, no sólo a los componentes individuales.

Soluciones relacionadas
IBM DevOps Accelerate

Automatice la entrega de software para cualquier aplicación en entornos locales, en la nube o en el mainframe.

Explore DevOps Accelerate
Soluciones DevOps

Utilice el software y las herramientas de DevOps para crear, implementar y gestionar aplicaciones nativas de la nube en varios dispositivos y entornos.

Explore las soluciones DevOps
Servicios de consultoría en la nube 

Desbloquee nuevas capacidades e impulse la agilidad empresarial con los servicios de consultoría de nube de IBM. Descubra cómo cocrear soluciones, acelerar la transformación digital y optimizar el rendimiento mediante estrategias de nube híbrida y colaboraciones con expertos.

Servicio en la nube
Dé el siguiente paso

Libere el potencial de DevOps para crear, probar e implementar aplicaciones nativas de la nube seguras con integración y entrega continuas.

Explore las soluciones DevOps Descubra DevOps en acción