La telemetría desempeña un papel clave en diversas industrias, como la de la atención médica, la aeroespacial, la automotriz y la tecnología de la información (TI), brindando a las organizaciones insights valiosos sobre el rendimiento del sistema, el comportamiento del usuario, la seguridad y la eficiencia operativa. En industrias que dependen de activos físicos, como la agricultura, los servicios públicos y el transporte, las organizaciones utilizan la telemetría para capturar mediciones como la temperatura, la presión del aire, el movimiento y la luz. En la atención médica, los sistemas de telemetría pueden rastrear la frecuencia cardíaca, la presión arterial y los niveles de oxígeno.
En ambos casos, los instrumentos físicos y los sensores recopilan datos del mundo real y los envían a un repositorio central. Los datos a menudo se transmiten empleando un protocolo de comunicación especializado como Modbus, PROFINET, OPC Unified Architecture o EtherNet/IP para análisis posteriores.
Sin embargo, los sensores físicos no están diseñados para capturar indicadores de rendimiento digital como tasas de error, uso de memoria, tiempos de respuesta, tiempo de actividad y latencia. En cambio, los equipos de TI dependen de la instrumentación de dispositivos, a menudo a través de agentes basados en software: sensores digitales que están programados para monitorear y recopilar de forma autónoma datos relevantes del sistema. Estos datos a menudo se estructuran como métricas, eventos, registros y rastreos (MELT), y cada uno captura una vista diferente del comportamiento del sistema, los flujos de trabajo operativos y los plazos de rendimiento.
Las líneas entre los sistemas de telemetría físicos y digitales están comenzando a desdibujarse, especialmente a medida que las empresas adoptan cada vez más estrategias de transformación digital, cuyo objetivo es infundir tecnología digital en todas las áreas de un negocio.
Por ejemplo, una industria tradicionalmente física como la fabricación podría usar sensores para capturar el consumo de energía, el control de calidad y las condiciones ambientales. Al mismo tiempo, podría depender de agentes de software para el seguimiento avanzado de activos, el mantenimiento preventivo y el monitoreo del flujo de producción. Por esa razón, este artículo se centra principalmente en la telemetría de TI y su papel en expansión en los entornos empresariales modernos.
En esencia, la telemetría de TI implica cinco pasos clave:
Las estrategias de telemetría eficaces ayudan a las organizaciones a lograr la observabilidad de lote completo o la capacidad de comprender el estado interno de una pila tecnológica de extremo a extremo en función de sus resultados externos.
La telemetría también es un componente importante del Internet de las cosas (IoT), una infraestructura que equipa a los dispositivos con sensores avanzados, software y conectividad de red, lo que les permite comunicar e intercambiar datos en todo el sistema.
Boletín de la industria
Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Los sistemas de telemetría varían según la industria y la complejidad del sistema. Las plataformas tradicionales utilizan dispositivos de grabación, históricamente llamados telémetros, para recopilar datos en un equipo o cerca de este. Esta información se procesa, modifica y, a veces, se convierte de analógica a digital, en un proceso llamado acondicionamiento de señales.
A continuación, un multiplexor combina múltiples flujos de datos en una señal compuesta, lo que ayuda a que los datos viajen de manera más eficiente. Esta señal combinada se transmite a una estación receptora remota a través de radio, satélite u otra forma de comunicación. Finalmente, un demultiplexor analiza las señales y las divide en hebras dispares para prepararlas para el análisis.
La telemetría funciona de manera diferente en los entornos de TI modernos. En lugar de depender de sensores físicos, los sistemas centrados en TI utilizan agentes de software, programas ligeros que se ejecutan junto con servicios y aplicaciones para capturar métricas relevantes. En entornos de Kubernetes, estos agentes suelen operar en un contenedor separado dentro del mismo clúster que los servicios que monitorean. Otras configuraciones pueden usar kits de desarrollo de software (SDK) para integrar agentes dentro de las propias aplicaciones, o usar API personalizadas para facilitar las transferencias de datos.
Después de la recopilación, los datos se transportan a través de un canal de telemetría, que puede estandarizar los datos, filtrar el ruido, agregar metadatos (como etiquetas de entorno y geolocalización) y enmascarar información confidencial para mantener el cumplimiento. Estos datos refinados se estandarizan con un formato como JSON u OpenTelemetry Protocol (OTLP).
A continuación, se enruta de forma inteligente a uno o más backends (los componentes del lado del servidor de un sistema de software, por ejemplo, servidores, bases de datos y lógica de aplicación) a través de gRPC, HTTP u otro protocolo de transporte. El backend es responsable de almacenar estos datos, analizarlos e interpretarlos y presentarlos en forma de paneles, alertas, recomendaciones y más.
Se puede utilizar un único sistema de telemetría para gestionar todo el flujo de trabajo, desde la recopilación hasta el análisis. Sin embargo, a veces, especialmente en entornos multinube e híbridos modernos, las organizaciones pueden utilizar múltiples sistemas de telemetría especializados para gestionar diferentes partes del pipeline de observabilidad.
En TI, los tipos más comunes de telemetría son métricas, eventos, rastreos, a menudo denominados colectivamente como datos "MELT". Las organizaciones pueden utilizar plataformas de observabilidad para combinar y analizar estas métricas, formando una imagen completa de la seguridad de la plataforma, el comportamiento de los usuarios, la eficiencia del sistema y más.
Las métricas son mediciones numéricas que son indicativas del estado o rendimiento del sistema. Los ejemplos incluyen tasas de solicitud, rendimiento de la red, tiempos de respuesta de las aplicaciones, tasas de conversión de usuarios y uso de CPU.
Los eventos son sucesos distintos que tienen lugar dentro del sistema. A menudo incluyen marcas de tiempo que muestran cuándo comenzó un evento y cuándo terminó. Los ejemplos incluyen notificaciones de alertas, intentos de inicio de sesión del usuario, interrupciones del servicio, fallas de pago y cambios en la configuración.
Los registros proporcionan un registro continuo y una cronología del comportamiento del sistema, a diferencia de los eventos, que solo señalan incidentes particulares. Los ejemplos incluyen reinicios, consultas a bases de datos, historiales de acceso a archivos y pasos de ejecución de código. Los registros se emplean a menudo para solucionar y depurar errores, ayudando a los equipos informáticos a determinar el momento exacto en que se produjo un fallo.
Los rastreos reflejan el flujo de extremo a extremo de una solicitud o transacción de usuario específica a través de un entorno distribuido o de microservicio, con marcas de tiempo para cada paso. Los ejemplos incluyen llamadas API y HTTP, consultas a bases de datos y pagos de comercio electrónico. Los rastreos pueden identificar cuellos de botella y proporcionar insights sobre la experiencia del usuario.
Si bien MELT presenta la amplitud de los datos de telemetría disponibles para las empresas, hay tipos de datos adicionales que quedan fuera de esta infraestructura pero que siguen desempeñando un papel crítico en la observabilidad. Los límites entre los tipos de telemetría no siempre son claros y puede haber cruces. Por ejemplo, la latencia puede considerarse tanto una métrica como un punto de datos de telemetría de red. Otros tipos de datos de telemetría incluyen:
La telemetría es el proceso de recopilación y transmisión de múltiples tipos de datos procedentes de sistemas y componentes distribuidos. Es la base de las capacidades de visibilidad de una organización, ya que ofrece insight sobre el comportamiento y el rendimiento de cada componente. En última instancia, las empresas confían en la telemetría para impulsar sus sistemas de monitoreo y observabilidad.
El monitoreo se refiere a cómo las organizaciones hacen uso de los datos de telemetría que han recopilado. Por ejemplo, un sistema de monitoreo de telemetría podría usar paneles para ayudar a los equipos de DevOps a visualizar el rendimiento del sistema. Mientras tanto, las automatizaciones de alertas pueden entregar notificaciones cada vez que se produce un evento notable, como una interrupción de la red o una filtración de datos.
La observabilidad implica interpretar datos operativos y comprender cómo los diferentes flujos de datos se correlacionan con el estado y el rendimiento del sistema. La observabilidad no solo analiza datos actuales sino que también detecta tendencias más amplias y las emplea para informar y optimizar la toma de decisiones empresariales y el uso de recursos. Las plataformas de observabilidad modernas a menudo incluyen funciones de telemetría y monitoreo integradas. La observabilidad también desempeña un papel clave en el apoyo a las tecnologías emergentes, incluida la IA agéntica y las plataformas de IA generativa.
Un marco de código abierto llamado OpenTelemetry (OTel) se encuentra entre las plataformas de telemetría más populares, valorado por su flexibilidad (su diseño modular fomenta la personalización), asequibilidad (sus componentes principales están disponibles sin costo) y compatibilidad (es compatible con múltiples proveedores y programación idiomas). OTel no controla el almacenamiento ni la visualización de telemetría. En cambio, proporciona un conjunto estandarizado de SDK, API y otras herramientas orientadas a la recopilación y transmisión de datos.
Casi la mitad de las organizaciones de TI utilizan OTel, mientras que un 25 % adicional planea implementar la infraestructura en el futuro, según un informe de 2025 de la empresa de IA Elastic. Las organizaciones con sistemas de observabilidad maduros tienen más probabilidades de utilizar OTel, en comparación con las empresas con flujos de trabajo de observabilidad menos desarrollados. IBM® Instana, Datadog, Grafana, New Relic, Dynatrace y Splunk cuentan con un sólido soporte para OTel.
Un marco alternativo de código abierto llamado Prometheus comparte algunas similitudes con OTel. La Cloud Native Computing Foundation (CNCF), una subsidiaria de la Linux Foundation sin fines de lucro, aloja ambas soluciones. A diferencia de OTel, Prometheus tiene algunas capacidades de almacenamiento de datos y visualización de datos. Pero tiene un alcance un poco más limitado: mientras que OTel puede recopilar diferentes tipos de datos de telemetría, Prometheus trabaja exclusivamente con métricas.
La normalización de la telemetría es el proceso de convertir métricas a un formato estandarizado para que las herramientas de analytics puedan almacenarlas, leerlas e interpretarlas. Hay dos enfoques principales:
En este enfoque de procesamiento de datos, todos los datos deben coincidir con un formato predefinido antes de que puedan almacenarse y recuperarse. Si bien el esquema en escritura es altamente confiable, puede ser difícil de implementar en arquitecturas de TI modernas, que involucran múltiples sistemas, cada uno con formatos y procesos de archivo distintos.
El esquema en escritura se usa comúnmente en repositorios de datos centralizados llamados almacenes de datos. Estas soluciones de almacenamiento de información pueden mantener grandes cantidades de datos de telemetría, pero solo si esos datos están estructurados y organizados en un formato predefinido. Los almacenes de datos pueden ser costosos de escalar y mantener, pero son ideales para la business intelligence, los analytics de datos y otros flujos de trabajo en los que la coherencia y la confiabilidad son prioridades absolutas.
Este enfoque recopila datos en su formato original y los convierte solo cuando un usuario los recupera. Si bien es más complejo desde el punto de vista operativo, el esquema en lectura puede manejar datos en múltiples formatos, lo que lo hace más flexible que el esquema en escritura.
El esquema en lectura es común en los lagos de datos, que son como almacenes de datos, pero pueden almacenar y gestionar datos semiestructurados y sin procesar, no estructurados junto con datos estructurados. Los lagos de datos se valoran por su rentabilidad y agilidad, lo que los hace especialmente ideales para herramientas de analytics impulsadas por machine learning. Pero sin una gobernanza sólida, pueden ser difíciles de gestionar, lo que da lugar a datos no verificados o incoherentes.
Una alternativa emergente llamada lakehouse de datos tiene como objetivo combinar los mejores elementos de los lagos de datos y los almacenes de datos. El marco admite el esquema en lectura para los datos no estructurados, al tiempo que permite el esquema en escritura para los datos estructurados. Este enfoque híbrido ayuda a las organizaciones a mantener la coherencia y la precisión al tiempo que obtienen un beneficio de la flexibilidad y la agilidad de lagos de datos.
Los datos de telemetría pueden ser difíciles de recopilar, mantener y almacenar, especialmente en entornos híbridos y multinube modernos. Los desafíos comunes incluyen:
Los dispositivos y servicios pueden usar diferentes formatos, protocolos y modelos para registrar datos de telemetría, lo que limita su capacidad para comunicarse con el repositorio central. Por ejemplo, un dispositivo médico remoto podría usar un protocolo patentado para medir los signos vitales de un paciente, mientras que el sistema electrónico de atención médica con el que se comunica usa un protocolo estándar. Esta incompatibilidad podría requerir que un equipo de DevOps cree middleware personalizado para facilitar la conexión.
Las incompatibilidades también pueden dificultar que las organizaciones mantengan la visibilidad de cada capa arquitectónica, lo que genera silos de datos, obstáculos a la innovación y brechas en la experiencia del cliente. Las empresas pueden abordar este desafío estableciendo formatos de datos consistentes, implementando medidas de seguridad estrictas, realizando auditorías de rutina y aplicando la sincronización y el control de versiones en todos los componentes.
Los datos redundantes y desordenados pueden generar costos de almacenamiento descontrolados o análisis defectuosos debido al exceso de ruido. Una gobernanza sólida puede ayudar a mitigar estos riesgos.
Por ejemplo, los equipos de DevOps pueden implementar políticas de retención de datos, donde los datos se eliminan automáticamente después de un determinado periodo de tiempo. El muestreo (preservación de una muestra representativa de un conjunto de datos más grande), la agregación (cálculo del promedio de un conjunto de datos en particular) y el almacenamiento de información en niveles (mover datos antiguos a soluciones de almacenamiento de información más lentas y asequibles) también pueden reducir la tensión del almacenamiento de información y los precios.
Las empresas, especialmente las de atención médica, servicios legales y recursos humanos, donde la información de identificación personal se almacena e intercambia con frecuencia, están sujetas a estrictas regulaciones que involucran la retención de datos, la privacidad y la soberanía. El cumplimiento puede ser un desafío debido al gran volumen y escala de datos de telemetría que los equipos modernos de DevOps deben recopilar y analizar.
Para abordar este desafío, las organizaciones pueden implementar prácticas de cifrado sólidas y controles de token que protejan los datos confidenciales de violaciones de seguridad y exposiciones accidentales. Las auditorías pueden ayudar a las organizaciones a revisar los pipelines de telemetría y detectar vulnerabilidades al principio del pipeline. Del mismo modo, los sistemas de filtrado pueden identificar y eliminar los datos que no cumplen con las normas antes de que lleguen a los usuarios. Finalmente, las empresas pueden mantener el cumplimiento a través de infraestructuras sólidas que aplican de manera efectiva las políticas de retención y residencia de datos.
El volumen de datos generados por los sistemas de telemetría puede abrumar a las empresas, oscureciendo las tendencias significativas y nublando los insights sobre la seguridad y la eficiencia del sistema. Mientras tanto, la fatiga alerta causada por un exceso de alertas puede distraer a los equipos de DevOps de completar tareas de alta prioridad y ejercer una presión innecesaria sobre los recursos. Las organizaciones pueden responder automatizando las respuestas a las alertas, filtrando los datos redundantes en el borde, estableciendo convenciones sólidas de etiquetado y nomenclatura y aplicando cuotas y límites de recursos.
La telemetría permite a las organizaciones transformar los datos en insights aplicables en la práctica que se pueden utilizar para mejorar el rendimiento, la eficiencia del flujo de trabajo, la elaboración de presupuestos, la experiencia del cliente y más.
Los datos de telemetría ayudan a los equipos de DevOps a identificar qué componentes y sistemas funcionan bien, y cuáles deben actualizarse, reconfigurarse o reemplazarse. También admite el mantenimiento predictivo, cuando los equipos analizan las tendencias históricas y los datos de rendimiento en tiempo real para mantener proactivamente el equipamiento, evitando fallas críticas. Los sistemas de telemetría también clasifican, organizan y eliminan de manera eficiente datos obsoletos o irrelevantes, reduciendo el desperdicio operativo.
A diferencia del análisis manual de datos, los datos de telemetría suelen recopilar automáticamente y en tiempo real. Este proceso ayuda a garantizar que las compañías puedan abordar rápidamente los problemas antes de que provoquen tiempo de inactividad o fallas costosas. Los sistemas de telemetría también pueden permitir a las compañías hacer un seguimiento de cómo afectarían las actualizaciones y las innovaciones al sistema antes de desplegarlas a escala.
Los sistemas de telemetría proporcionan visibilidad en tiempo real del comportamiento de los usuarios, aplicaciones y sistemas. El monitoreo continuo ayuda a establecer una línea de base de rendimiento, lo que facilita detectar anomalías, como tráfico de red inusual, intentos fallidos de inicio de sesión repetidos, instalaciones inesperadas y otras actividades sospechosas. La telemetría también puede exponer la TI en la sombra (componentes no autorizados que actúan fuera de la gobernanza centralizada), lo que ayuda a eliminar posibles puntos de entrada para los atacantes.
Las políticas de cifrado sólidas pueden proteger los datos en todo el proceso de telemetría, mientras que la aplicación de la retención ayuda a garantizar que los datos privados se conserven solo cuando sea necesario. Los controles de acceso basados en roles permiten a los stakeholders pertinentes acceder a datos privados, y las pistas de auditoría y los registros proporcionan un historial detallado de las acciones recientes del sistema, lo que permite investigaciones de seguridad más precisas y eficientes.
La telemetría brinda a los equipos un insight más profundo del uso del sistema a lo largo del tiempo, lo que les permite escalar dinámicamente los recursos para adaptarse a las cambiantes demandas de la carga de trabajo. Los equipos pueden emplear estos insights para optimizar la utilización de los recursos y controlar los costos mientras mantienen un entorno estable y seguro para los clientes.
Las plataformas de telemetría ayudan a los equipos a sintetizar datos de toda la organización para tomar decisiones comerciales mejor informadas y basadas en datos. Las plataformas de observabilidad se basan en datos de telemetría para analizar el estado del sistema, los recorridos del cliente, la participación del usuario y otros indicadores clave de rendimiento. Fundamentalmente, la telemetría recopila e integra datos de aplicaciones y sistemas distribuidos, lo que brinda a las empresas una visión holística de cómo las decisiones comerciales afectan a todo el entorno, no solo a los componentes individuales.
Automatice la entrega de software para cualquier aplicación on premises, en la nube o en el mainframe.
Utilice el software y las herramientas de DevOps para crear, desplegar y gestionar aplicaciones nativas de la nube en múltiples dispositivos y entornos.
Desbloquee nuevas capacidades e impulse la agilidad empresarial con los servicios de IBM de asesoramiento sobre la nube. Descubra cómo crear conjuntamente soluciones, acelerar la transformación digital y optimizar el rendimiento a través de estrategias de nube híbrida y asociaciones de expertos.