¿Qué es la latencia?
Explore la solución de latencia de IBM Suscríbase a las actualizaciones sobre el tema en torno a la IA
Ilustración con collage de pictogramas de engranaje, brazo robótico, teléfono móvil

Publicado: 15 de agosto de 2023
Colaborador: Michael Goodwin

¿Qué es la latencia?

La latencia mide el retraso de un sistema. La latencia de red es el tiempo que tardan los datos en viajar de un punto a otro a través de una red. Una red con una latencia alta tendrá tiempos de respuesta más lentos, mientras que una red con una latencia baja tendrá tiempos de respuesta más rápidos.

Aunque en principio los datos deberían viajar por Internet casi a la velocidad de la luz, en la práctica los paquetes de datos se mueven por la red a un ritmo algo más lento debido a los retrasos causados por la distancia, la infraestructura de Internet y otras variables.1 La suma de estos retrasos es la latencia de una red.

Inteligencia artificial para operaciones de TI (AIOps)

Descubra cómo APM y ARM pueden agilizar la toma de decisiones y la aplicación de recursos.

Contenido relacionado

Lea una guía para la automatización inteligente

¿Por qué es importante la latencia de una red?

Mantener baja la latencia de una red es importante porque afecta directamente a la productividad, la colaboración, el rendimiento de las aplicaciones y la experiencia del usuario. Cuanto mayor es la latencia (y más lentos los tiempos de respuesta), más se resienten estos aspectos. Ahora que las empresas apuestan cada vez más por la transformación digital y dependen de aplicaciones y servicios basados en la nube dentro del Internet de las cosas, una latencia baja resulta especialmente crucial.

Comencemos con un ejemplo sencillo. Si la latencia de la red provoca un rendimiento inadecuado de las aplicaciones o tiempos de carga lentos para sus clientes, es probable que estos busquen soluciones alternativas. Ahora más que nunca, tanto los usuarios particulares como las empresas esperan un rendimiento rapidísimo. Si su organización utiliza aplicaciones empresariales que se basan en datos en tiempo real extraídos de distintas fuentes para hacer recomendaciones sobre la dotación de recursos, una latencia alta puede provocar ineficiencias. Estas ineficiencias pueden repercutir negativamente en el rendimiento y el valor de las aplicaciones.

Todas las empresas prefieren una latencia baja. No obstante, existen sectores y casos de uso para los cuales una latencia baja es especialmente fundamental porque dependen de datos de sensores o funcionan con computación de alto rendimiento. Por ejemplo, la fabricación automatizada, las operaciones remotas por vídeo (piense en las cámaras que se usan en las operaciones médicas), el streaming en vivo o el comercio de alta frecuencia.

Una latencia alta puede generar sobrecostes. Supongamos que su objetivo es mejorar el rendimiento de sus aplicaciones y su red aumentando o reasignando la inversión en computación, almacenamiento y redes. Si no aborda los problemas de latencia existentes, puede acabar pagando una factura mayor sin notar mejoras en el rendimiento, la productividad o la satisfacción del cliente.

¿Cómo se mide la latencia?

La latencia de una red se mide en milisegundos calculando el intervalo de tiempo entre el inicio de una operación de envío desde un sistema de origen y la finalización de la operación de recepción correspondiente por parte del sistema de destino.2

Una forma sencilla de medir la latencia es ejecutar un comando "ping", que es una herramienta de diagnóstico de red usada para probar la conexión entre dos dispositivos o servidores. Durante estas pruebas de velocidad, muchas veces nos referimos a la latencia simplemente como "ping".

En esta prueba, se envía un paquete de solicitud de eco del Protocolo de Mensajes de Control de Internet (ICMP) a un servidor de destino y luego se manda el paquete de vuelta. El comando ping calcula el tiempo que tarda el paquete en viajar desde el origen al destino y volver. Este tiempo total de viaje se denomina tiempo de ida y vuelta (RTT) y equivale aproximadamente al doble de la latencia, ya que los datos van y vuelven al servidor. El ping no se considera una medida exacta de la latencia ni una prueba ideal para detectar problemas de latencia direccional de la red. Esta limitación se debe a que los datos pueden viajar por distintas rutas de la red y encontrarse con distintos escenarios en cada una de las etapas del viaje.

 

Latencia, ancho de banda y rendimiento

La latencia, el ancho de banda y el rendimiento están relacionados y a veces se confunden como sinónimos, pero en realidad se refieren a características distintas de la red. Como se ha señalado, la latencia es el tiempo que tarda un paquete de datos en viajar entre dos puntos a través de una conexión de red.

Ancho de banda

El ancho de banda mide el volumen de datos que pueden pasar por una red a la vez. Se mide en unidades de datos por segundo, como megabits por segundo (mbps) o gigabits por segundo (gbps). Probablemente haya escuchado a su proveedor de Internet hablar de ancho de banda a la hora de describir sus distintos paquetes de servicios. Esto genera una gran confusión, ya que el ancho de banda no es una medida de velocidad, sino de capacidad. Aunque un ancho de banda alto puede contribuir a la velocidad de Internet, la velocidad también depende de factores como la latencia y el rendimiento.

Rendimiento

El rendimiento es la cantidad media de datos que pasan realmente a través de una red en un periodo de tiempo determinado, teniendo en cuenta el impacto de la latencia. Refleja el número de paquetes de datos que llegan correctamente y la cantidad de paquetes de datos perdidos. Por lo general, se mide en bits por segundo o, a veces, en datos por segundo.

Jitter

Otro factor que influye en el rendimiento de la red es el jitter o fluctuación. El jitter, también conocido como fluctuación, es la variación de la latencia de los flujos de paquetes en una red. Es preferible una latencia constante a un jitter elevado, porque el jitter puede provocar pérdida de paquetes, es decir, paquetes de datos que nunca llegan a su destino.

Una forma sencilla, pero útil, de recordar la relación entre latencia, ancho de banda y rendimiento es que el ancho de banda es la cantidad de datos que pueden viajar por una red, el rendimiento es la medida de la cantidad que se transfiere realmente por segundo y la latencia es el tiempo que se tarda en hacerlo.

¿Qué causa la latencia de una red?

Visualizar el trayecto que recorren los datos del cliente al servidor y viceversa sirve para comprender la latencia y los diversos factores que influyen en ella. Las causas más comunes de latencia en la red son:

La distancia que tienen que recorrer los datos

En pocas palabras, cuanto mayor sea la distancia entre el cliente que inicia una solicitud y el servidor que responde, mayor será la latencia. La diferencia entre un servidor de Chicago y otro de Nueva York a la hora de responder a una petición de un usuario de Los Ángeles puede ser sólo de unos pocos milisegundos. Pero en esta industria, cada milisegundo cuenta.

Medio de transmisión y saltos de red

En segundo lugar, hay que tener en cuenta el medio por el cual viajan los datos. ¿Es una red de cables de fibra óptica (generalmente menor latencia) o una red inalámbrica (generalmente mayor latencia), o un complejo entramado de redes con múltiples medios, como suele ser habitual?

El medio empleado para el transporte de datos influye en la latencia. Lo mismo ocurre con la cantidad de veces que los datos pasan por dispositivos de red, como los routers, para desplazarse de un segmento de red al siguiente (saltos de red) antes de llegar a su destino. Cuanto mayor sea el número de saltos, mayor será la latencia.

Tamaño del paquete de datos y congestión de la red

Tanto el tamaño de los paquetes de datos como la cantidad total de datos en una red afectan a la latencia. Los paquetes grandes tardan más en enviarse, y si el volumen de datos supera la capacidad de la infraestructura de red, es probable que se formen cuellos de botella y aumente la latencia.

Rendimiento del hardware

Los servidores, routers, hubs, switches y demás hardware de red anticuados o con recursos insuficientes pueden provocar tiempos de respuesta más lentos. Por ejemplo, si los servidores reciben más datos de los que pueden manejar, los paquetes se retrasarán, lo que ralentizará la carga de páginas, la velocidad de descarga y el rendimiento de las aplicaciones.

Estructura de las páginas web

Los elementos como archivos grandes de imagen y video, recursos que dificultan el renderizado o caracteres innecesarios en el código fuente también suelen aumentar la latencia.

Factores relacionados con los usuarios

A veces el origen de la latencia está en factores relacionados con el usuario, como un ancho de banda insuficiente, malas conexiones a Internet o equipos anticuados.

¿Cómo reducir la latencia?

Para reducir la latencia en su red, puede empezar por realizar esta evaluación de la red:

-       ¿Viajan nuestros datos por la ruta más corta y eficiente?

-       ¿Cuentan nuestras aplicaciones con los recursos necesarios para que funcionen de manera óptima?

-       ¿Está actualizada nuestra infraestructura de red y es adecuada para el trabajo?

Comparta datos a nivel mundial

Empecemos con la cuestión de la distancia. ¿Dónde se encuentran sus usuarios? ¿Y dónde están los servidores que responden a sus solicitudes? Distribuir los servidores y las bases de datos en puntos geográficos más cercanos a los usuarios permite reducir la distancia física que deben recorrer los datos, además de reducir el enrutamiento y los saltos de red ineficaces.

Una forma de compartir datos a nivel global es con una Content Delivery Network o CDN. Usar una red de servidores distribuidos permite almacenar contenidos más cerca de los usuarios finales, lo que reduce la distancia que deben recorrer los paquetes de datos.  ¿Pero y si no solo quiere ofrecer contenido en caché?

El edge computing es una estrategia útil que permite a las organizaciones ampliar su entorno de nube desde el centro de datos central hasta ubicaciones físicas más cercanas a sus usuarios y datos. Mediante edge computing, las organizaciones pueden ejecutar aplicaciones más cerca de sus usuarios y así reducir la latencia.

Subredes

Una subred es básicamente una red más pequeña dentro de otra red. Las subredes agrupan puntos finales que se comunican frecuentemente entre sí, lo que evita enrutamientos ineficaces y reduce la latencia.

Use una solución de gestión del rendimiento de las aplicaciones

Las herramientas de monitorización tradicionales no son lo suficientemente rápidas ni detalladas como para detectar y contextualizar de forma proactiva los problemas de rendimiento en los complejos entornos actuales. Para anticiparse a posibles problemas, puede utilizar una solución como la plataforma Instana Observability, que proporciona capacidad de observación y asignación de dependencias integral en tiempo real. Estas funciones permiten a los equipos localizar, contextualizar, abordar y prevenir los problemas de rendimiento de las aplicaciones que afectan a la latencia de la red.

Optimize la asignación de recursos y la distribución de la carga de trabajo

Si las cargas de trabajo no disponen de los recursos informáticos, de almacenamiento y de red adecuados, la latencia aumenta y el rendimiento se resiente. Intentar resolver este problema mediante el sobreaprovisionamiento es ineficaz y un despilfarro, e intentar ajustar manualmente la demanda a los recursos en las complejas infraestructuras modernas es una tarea imposible.

Una solución de gestión de recursos de aplicaciones como la plataforma IBM Turbonomic, que analiza continuamente el uso de recursos y el rendimiento de aplicaciones e infraestructuras en tiempo real puede resolver los problemas de recursos y reducir la latencia.

Por ejemplo, la plataforma es capaz de reducir la latencia si detecta una aplicación con alta latencia debido a la contención de recursos en un servidor. Lo hace asignando automáticamente los recursos necesarios a la aplicación o trasladándola a un servidor menos congestionado.

Monitorice el rendimiento de la red

Las pruebas como el comando ping ofrecen una medición sencilla de la latencia de la red, pero son insuficientes para detectar problemas, y más aún para resolverlos. Puede utilizar una solución de gestión de rendimiento como IBM SevOne NPM, que ofrece una plataforma unificada para ayudar a sus equipos a detectar, abordar y prevenir los problemas de rendimiento de la red y reducir la latencia.

Mantenga su infraestructura actualizada

Asegúrese de usar hardware, software y configuraciones de red actualizados y de que su infraestructura puede soportar lo que se le pide. Realizar comprobaciones y tareas de mantenimiento periódicas en su red también le ayudará a reducir los problemas de rendimiento y latencia.

Optimice los activos y la codificación de las páginas

Para evitar que la estructura de la página aumente la latencia, los desarrolladores pueden optimizar los vídeos, las imágenes y otros recursos incluidos para que se carguen más rápido, así como minimizar el código.

Soluciones relacionadas
Observabilidad IBM Instana Observability

IBM Instana Observability es una plataforma para monitorizar en detalle el rendimiento de aplicaciones con visibilidad de pila completa, granularidad de 1 segundo y 3 segundos de tiempo de notificación.

Más información sobre IBM Instana Observability Solicite una demostración de observabilidad de Instana

Optimización de costes de nube híbrida IBM Turbonomic

Diseñada para optimizar los costes asociados a la nube híbrida, la plataforma Turbonomic le permite automatizar continuamente y en tiempo real las acciones cruciales que garantizan que sus aplicaciones hagan un uso eficiente de sus recursos informáticos, de almacenamiento y de red, en cada capa de la pila. 

Más información sobre Turbonomic Explore la demostración interactiva

Gestión del rendimiento de la red IBM SevOne Network Performance Management

Diseñado para redes modernas, IBM SevOne Network Performance Management (NPM) le ayuda a detectar, abordar y prevenir los problemas de rendimiento de la red con la observabilidad de la red de nube híbrida. 

Más información sobre SevOne NPM
Recursos Modernice la monitorización del rendimiento de su red

Benefíciese de las capacidades modernas de NPM que son dinámicas, flexibles y escalables.

Haga frente a la creciente complejidad que supone la monitorización del rendimiento de red

Conozca las funciones avanzadas de visibilidad, información y actuación sobre redes y aplicaciones.

Cinco pasos para impulsar la gestión del rendimiento de su red

Descubra cinco pasos que ayudarán a los operadores e ingenieros de redes a medir rápidamente sus capacidades de gestión del rendimiento de la red en comparación con lo que realmente se requiere de los entornos de TI modernos.

Enento Group

Descubra cómo el proveedor de información crediticia líder en los países nórdicos utilizó Instana Observability para identificar rápidamente errores, reducir la latencia existente y aportar visibilidad en tiempo real a cada solicitud de servicio (sin muestreo).

Dealerware

Descubra cómo el equipo de Dealerware DevOps utilizó Instana Observability para reducir la latencia de entrega en un 98 % durante un periodo de crecimiento exponencial.

Dé el siguiente paso

IBM Instana proporciona observabilidad en tiempo real que todos pueden utilizar. Proporciona un tiempo de obtención de valor rápido a la vez que verifica que su estrategia de observabilidad pueda seguir el ritmo de la complejidad dinámica de los entornos actuales y futuros. Desde dispositivos móviles hasta mainframe, Instana es compatible con más de 250 tecnologías y sigue creciendo. 

Explore IBM Instana Reserve una demostración en directo
Notas a pie de página

1"Internet at the Speed of Light" (enlace fuera de ibm.com). Yale.edu. 3 de mayo de 2022

2El efecto de la red en el rendimiento”, IBM.com, 3 de marzo de 2021