¿Qué es la latencia de datos? Guía avanzada

Michael Chen | Estrategia de contenido | 13 de mayo de 2024

La latencia de datos hace referencia al retraso de tiempo entre el momento en que se envían los datos para su uso y el momento en que se produce el resultado deseado. La latencia puede ser causada por una serie de factores, como la congestión de la red, las limitaciones de hardware, los tiempos de procesamiento de software, la distancia entre los puntos finales y la forma en que se configura un sistema.

Considere el retraso de respuesta entre golpear el pedal de freno de su automóvil y detener el vehículo. En la práctica, los humanos tienden a frenar dentro de un segundo de percibir la necesidad de hacerlo. Imagine lo desestabilizador que sería si hubiera un retraso de dos o tres segundos antes de que el sistema se activara. El resultado sería una reducción drástica de los límites de velocidad, y la distancia segura entre los coches tendría que aumentar considerablemente. Afortunadamente, a menos que algo esté mal, el frenado comienza en décimas de segundo, y lo percibimos como una respuesta instantánea en tiempo real.

La latencia en cualquier sistema de control, incluida la tecnología Internet of Things (IoT), limitará la precisión con la que puede operar. Un caso de uso popular de IoT es la tecnología para el hogar inteligente que nos permite controlar varias utilidades, como iluminación, calefacción, seguridad y electrodomésticos, a través de un concentrador inteligente centralizado o una aplicación móvil. Considere un termostato inteligente. Cuando se establece en 70 grados, debido a la latencia en el sistema, la temperatura fluctuará entre aproximadamente 69 y 71. Pero digamos que, en lugar de una fluctuación de dos o tres grados, solo desea una fluctuación de 0,1 grados. Debido a la latencia entre el calor o el aire acondicionado y el termostato que registra el cambio, la temperatura real casi nunca estaría en ese rango de 0,1 grados muy estrecho. Por lo tanto, cada minuto más o menos, el concentrador cambia entre A / C y calor. Esto no solo sería difícil para sus sistemas mecánicos, sino que también recibiría una sorpresa grosera cuando llegara su próxima factura de energía.

¿Qué es la latencia de datos?

La latencia de datos es el tiempo que tardan los datos en desplazarse de su origen a su destino, o el tiempo que tardan los datos en procesarse y ponerse a disposición para su uso. Este retraso puede ser causado por varios factores, incluyendo la congestión de la red y las limitaciones de hardware, cómo se configura una recopilación de datos y cuellos de botella en los sistemas de procesamiento de datos.

La latencia de los datos puede tener implicaciones negativas significativas; también puede ser una palanca que el departamento de TI puede aprovechar para equilibrar el costo de la recopilación y transmisión de datos con las necesidades empresariales. En algunas industrias, especialmente aquellas que requieren información en tiempo real o sensible al tiempo, como la industria financiera, incluso un pequeño retraso en la transmisión de datos puede conducir a oportunidades perdidas o precios incorrectos. En general, las organizaciones trabajarán para sopesar la velocidad vital para la toma de decisiones y el rendimiento óptimo en varias aplicaciones frente a los costos de una respuesta más rápida, y aún así, hay un límite en la cantidad de latencia que se puede expulsar de un sistema.

Mientras que la latencia siempre degrada el rendimiento, si un sistema digital se vuelve inutilizable o no depende de una serie de factores.

En los sistemas de control, es decir, aquellos que gestionan, dirigen y controlan otros sistemas o dispositivos, la latencia excesiva causa inestabilidad e incluso puede hacer que el sistema no funcione. En los casos de uso en tiempo real, como las llamadas de voz y vídeo, la latencia es, en el mejor de los casos, molesta y, por encima de un cierto umbral, hace que el sistema sea inutilizable. Y en el análisis de datos, la latencia puede ralentizar el proceso hasta el punto de hacer que el análisis terminado sea discutible porque los tomadores de decisiones siguieron adelante sin él.

Veamos varios tipos de latencia.

Latencia de datos en aplicaciones en tiempo real

Los seres humanos son muy intolerantes a la pérdida de datos en audio y video. En las aplicaciones de audio, si los datos se retrasan más de un cuarto de segundo más o menos, se vuelve inútil y se percibirá como un clic o pop o un audio confuso. Lo mismo ocurre en el caso del vídeo. Los datos tardíos son tan malos como los datos perdidos. Los algoritmos pueden intentar compensar, pero si la latencia de la red supera los aproximadamente 300 milisegundos, el video en tiempo real se dañará de manera intolerable.

En las redes modernas, la latencia suele ser de solo decenas de milisegundos, y las aplicaciones de video y audio se ejecutan muy bien. Las redes también reconocen el tráfico en tiempo real y lo priorizan para que la latencia no haga que los datos sean inútiles a la llegada.

En aplicaciones casi en tiempo real, la latencia es un problema. Cuando se recopilan datos de sensores en una planta de fábrica remota para supervisar el funcionamiento incorrecto, por ejemplo, la latencia puede ralentizar el tiempo de respuesta hasta el punto de que una línea de producción se apague antes de que un técnico pueda intervenir. Pero un intercambio de información más rápido requiere redes de área amplia de muy alto rendimiento, que son caras. La respuesta es utilizar los llamados sistemas de computación perimetral que acercan el almacenamiento y los recursos informáticos a las máquinas que crean los datos, reduciendo los requisitos de transporte de datos y, por lo tanto, reduciendo la latencia.

Latencia de datos en análisis empresariales

Hasta ahora, los sistemas de los que hemos hablado requieren una latencia de menos de un segundo para funcionar de manera efectiva. Los datos de negocio, y su análisis, siempre serán más útiles cerca del momento en que se crearon. Pero aparte de esa afirmación muy amplia, es difícil decir exactamente cuánta latencia es aceptable sin pensar en la aplicación en cuestión.

En el pronóstico del tiempo, los datos sobre las condiciones atmosféricas de la semana pasada podrían tener algún uso en la identificación de patrones climáticos para esta semana, pero los datos más recientes de los últimos días y horas serán mucho más útiles. Sin embargo, hay un límite en cuanto a la puntualidad importa. ¿Los meteorólogos necesitan actualizaciones de datos cada segundo o cada décima de segundo? En algún momento, simplemente no hay suficiente variación en los datos recopilados a intervalos muy cortos para que valga la pena el gasto.

El mismo tipo de pensamiento es importante a la hora de calcular cuánta latencia es aceptable en el diseño de sistemas de análisis de negocio. ¿Quiere un gran minorista saber cuántas camisas azules se venden segundo a segundo? Probablemente no. ¿Son suficientes los datos de ventas e inventario por hora? Teniendo en cuenta lo difícil que sería hacer un cambio significativo en el inventario en menos de una hora, sí, eso probablemente sea suficiente. Lograr un mejor rendimiento costaría dinero que podría gastarse mejor en otros lugares.

Por otro lado, los informes sobre los datos de ventas que son precisos en unas pocas horas o incluso un par de días podrían ser bastante valiosos. Los ejecutivos podrían querer saber qué artículos compran también las personas que compran camisas azules, incluso si no se encuentran en la misma instancia de compra. Podrían crear paquetes de ventas (piense en las ofertas "Compre el aspecto") en función de estos datos. Del mismo modo, los compradores en línea aprecian las recomendaciones de "Las personas que compraron esto, también lo compraron". Por lo tanto, la latencia en la recopilación de datos de "La gente también compró" podría ser mucho más crítica que simplemente cuántas camisas se vendieron. La diferencia entre que los informes de los gerentes de tiendas lleguen a sus bandejas de entrada todos los días y que les permitan extraer los datos en segundos puede ser un verdadero cambio de juego empresarial.

Por lo tanto, si bien la latencia afecta la forma en que se recopilan los datos, cómo se procesan y cómo se ponen a disposición para análisis futuros, decidir qué área mejorar debe comenzar con una comprensión del desafío empresarial. La recopilación de datos debe ser tan rápida como el negocio necesita, pero gastar dinero para hacerlo más rápido podría ser una inversión imprudente. La clave es centrarse en áreas donde las nuevas inversiones tecnológicas tendrán el mayor impacto.

Mientras tanto, pasar de un sistema que requiere un proceso ETL antes de que el análisis pueda comenzar a uno que permita almacenar datos en un entorno de base de datos avanzado podría permitir a los líderes empresariales comprender más tendencias más rápidamente, posiblemente incluso en tiempo real. La adición de capacidades de autoservicio para que los líderes empresariales puedan generar análisis comunes también reducirá otra fuente de latencia.

Esto se relaciona con el concepto de latencia empresarial, el tiempo transcurrido entre el momento en que un evento inesperado que afecta al rendimiento futuro se produce y el momento en que la organización actúa sobre esta información.

Es crucial gestionar la latencia porque puede tener un gran impacto en la experiencia y la satisfacción del usuario. La alta latencia puede provocar tiempos de carga lentos, retrasos en el procesamiento de solicitudes y un rendimiento general deficiente. La supervisión y optimización de los niveles de latencia merece la pena. Al reducir la latencia, las empresas pueden mejorar la satisfacción de los clientes y empleados.

Los hiperescaladores de hoy en día han forjado asociaciones que permiten el acceso completo a sus datos dentro de las instalaciones de cualquier proveedor en la nube, y sin latencia. Así es como, además de 10 avances más que saber ahora.

Preguntas frecuentes sobre la latencia de datos

¿Qué es latencia de datos aceptable?

La latencia de datos aceptable varía según la organización o el sistema que utilice los datos. En general, la latencia de datos aceptable hace referencia a la cantidad máxima de tiempo que pueden tardar los datos en transmitirse o procesarse desde su origen hasta su destino para ofrecer un rendimiento aceptable. En algunos casos, como en sistemas financieros o aplicaciones esenciales, el procesamiento de datos en tiempo real con una latencia mínima es crucial. En otros casos, como en análisis de datos o informes donde las actualizaciones de datos pueden ser por lotes, puede ser aceptable un ligero retraso en la transmisión o el procesamiento de datos. En última instancia, lo que constituye una latencia de datos "aceptable" está determinado por las prioridades específicas y los casos de uso de la organización o el sistema.

En los servidores, la latencia entre la memoria, la CPU y los adaptadores de red se medirá en microsegundos. En sistemas de almacenamiento a gran escala, son milisegundos. Cuando los clientes realizan compras, la confirmación de transacciones en el almacenamiento puede tardar aproximadamente una fracción de segundo. Y cuando los humanos están involucrados, la latencia puede ser mucho más larga. La determinación de la latencia aceptable dependerá casi siempre de la aplicación en cuestión.

¿Cómo maneja la latencia de datos?

Las estrategias para manejar la latencia de datos dependen del origen de la latencia. Si una organización solo ve un puñado de quejas con respecto a la latencia, el problema puede provenir del lado del usuario. Las posibles causas incluyen dispositivos obsoletos o una conexión a Internet lenta. Para los problemas generalizados, esto es una señal de que la causa descansa en el lado de la organización. Un conjunto de mejores prácticas para ayudar a corregir la latencia de los datos puede incluir la implementación de herramientas de almacenamiento en caché, herramientas de supervisión, mejores estrategias de compresión de datos y la consideración de un mejor proveedor de infraestructura en la nube.

¿Afecta la velocidad de datos a la latencia?

La velocidad de transmisión de datos se refiere a la velocidad a la que los datos se envían a través de una red, generalmente expresada en bytes por segundo. La latencia de los datos está relacionada con esto, ya que es el intervalo de tiempo entre la solicitud y la respuesta. Una mayor velocidad de datos puede ayudar a reducir la latencia de los datos, ya que una mayor velocidad de datos garantiza un mejor ancho de banda y un rendimiento general. Sin embargo, la latencia de los datos no depende necesariamente directamente de la velocidad de datos, ya que se pueden aplicar otras variables. Sin embargo, están lo suficientemente relacionados como para que los problemas de velocidad de datos puedan ser indicativos de problemas de latencia y viceversa.

¿Cómo se puede reducir la variación de latencia?

Para los usuarios, la variación de latencia puede provenir de algo tan simple como una conexión a Internet poco fiable o poca memoria / almacenamiento en un dispositivo; abordar esos problemas generalmente elimina la variación. En el lado del proveedor, la variación de latencia puede ser un síntoma de las solicitudes de computación repentinas que agotan la potencia de procesamiento o el ancho de banda. La supervisión integral de aplicaciones, así como la supervisión general de la red, deben proporcionar información sobre por qué se producen picos repentinos de latencia. Una vez que la causa raíz está aislada, los equipos de TI pueden implementar estrategias de optimización.