Qu'est-ce que la latence des données ? Un guide d'expertise

Michael Chen | Responsable de la stratégie de contenu | 13 mai 2024

La latence des données fait référence au délai entre le moment où les données sont envoyées pour être utilisées et le moment où elles produisent le résultat souhaité. La latence peut être causée par un certain nombre de facteurs, notamment la congestion du réseau, les limitations matérielles, les temps de traitement des logiciels, la distance entre les points d'extrémité et la configuration d'un système.

Considérez le décalage de réponse entre le fait de frapper la pédale de frein de votre voiture et l'arrêt du véhicule. En pratique, les humains ont tendance à freiner en une seconde après avoir perçu la nécessité de le faire. Imaginez à quel point il serait déstabilisant s'il y avait alors un délai de deux ou trois secondes avant que le système ne s'engage. Le résultat serait une réduction spectaculaire des limites de vitesse, et la distance de sécurité entre les voitures devrait augmenter considérablement. Heureusement, sauf si quelque chose ne va pas, le freinage commence en dixièmes de seconde, et nous percevons cela comme une réponse instantanée en temps réel.

La latence de tout système de contrôle, y compris la technologie Internet of Things (IoT), limitera la précision avec laquelle il peut fonctionner. Un cas d'utilisation populaire de IoT est la technologie de maison intelligente qui nous permet de contrôler divers services publics, tels que l'éclairage, le chauffage, la sécurité et les appareils électroménagers, via un hub intelligent centralisé ou une application mobile. Pensez à un thermostat intelligent. Lorsque vous la définissez à 70 degrés, en raison de la latence du système, la température fluctuera entre environ 69 et 71. Mais disons que, plutôt qu'une fluctuation de deux ou trois degrés, vous ne voulez qu'une fluctuation de 0,1 degré. En raison de la latence entre la chaleur ou A / C en cours et le thermostat enregistrant le changement, la température réelle ne serait presque jamais dans cette plage très étroite de 0,1 degré. Ainsi, chaque minute environ, le hub bascule entre A/C et la chaleur. Non seulement cela serait difficile pour vos systèmes mécaniques, mais vous auriez également une surprise grossière lorsque votre prochaine facture d'énergie serait arrivée.

Qu'est-ce que la latence des données ?

La latence des données correspond au temps nécessaire au déplacement des données de leur source vers leur destination, ou au temps nécessaire au traitement et à la mise à disposition des données pour les utiliser. Ce retard peut être causé par divers facteurs, notamment la congestion du réseau et les limitations matérielles, la configuration d'une collecte de données et les goulets d'étranglement dans les systèmes de traitement des données.

La latence des données peut avoir des implications négatives importantes ; elle peut également être un levier que le service informatique peut tirer pour équilibrer le coût de la collecte et de la transmission des données avec les besoins de l'entreprise. Dans certains secteurs, en particulier ceux qui nécessitent des informations en temps réel ou sensibles au temps, comme le secteur financier, même un léger retard dans la transmission des données peut entraîner des opportunités manquées ou des prix incorrects. En général, les entreprises s'efforcent d'évaluer la vitesse vitale pour la prise de décision et les performances optimales dans diverses applications par rapport aux coûts d'une réponse plus rapide. Cependant, il existe une limite à la latence pouvant être exclue d'un système.

Bien que la latence dégrade toujours les performances, le fait qu'un système numérique devienne inutilisable ou non dépend d'une série de facteurs.

Dans les systèmes de contrôle, c'est-à-dire ceux qui gèrent, dirigent et commandent d'autres systèmes ou périphériques, une latence excessive provoque une instabilité et peut même rendre le système inopérant. Dans les cas d'utilisation en temps réel, tels que les appels vocaux et vidéo, la latence est au mieux gênante et, au-delà d'un certain seuil, rend le système inutilisable. En outre, dans l'analyse des données, la latence peut ralentir le processus au point de rendre l'analyse terminée moot parce que les décideurs ont continué sans elle.

Examinons plusieurs types de latence.

Latence des données dans les applications en temps réel

Les humains sont très intolérants à la perte de données en audio et vidéo. Dans les applications audio, si les données sont retardées de plus d'un quart de seconde environ, elles deviennent inutiles et seront perçues comme un clic ou une pop ou un son brouillé. La même chose est vraie pour la vidéo. Les données tardives sont tout aussi mauvaises que les données perdues. Les algorithmes peuvent tenter de compenser, mais si la latence du réseau dépasse environ 300 millisecondes, la vidéo en temps réel sera intolérablement corrompue.

Dans les réseaux modernes, la latence est généralement de quelques dizaines de millisecondes, et les applications vidéo et audio fonctionnent très bien. Les réseaux reconnaissent également le trafic en temps réel et le classent par ordre de priorité afin que la latence ne rende pas les données inutiles à l'arrivée.

Dans les applications quasiment en temps réel, la latence est un problème. Lors de la collecte de données à partir de capteurs sur un plancher d'usine distant pour surveiller les dysfonctionnements, par exemple, la latence peut ralentir le temps de réponse jusqu'à ce qu'une ligne de production s'arrête avant qu'un technicien puisse intervenir. Mais un partage d'informations plus rapide nécessite des réseaux étendus très performants, qui sont coûteux. La réponse est d'utiliser des systèmes informatiques dits de périphérie qui rapprochent le stockage et le calcul des machines créant les données, réduisant ainsi les exigences de transport des données et réduisant ainsi la latence.

Latence des données dans les analyses métier

Jusqu'à présent, les systèmes dont nous avons parlé nécessitent une latence inférieure à la seconde pour fonctionner efficacement. Les données d'entreprise, et leur analyse, seront toujours plus utiles vers le moment où elles ont été créées. Mais en dehors de cette déclaration très large, il est difficile de dire exactement combien de latence est acceptable sans penser à l'application à portée de main.

Dans les prévisions météo, les données sur les conditions atmosphériques de la semaine dernière pourraient être utiles pour identifier les modèles météorologiques pour cette semaine, mais des données plus récentes des derniers jours et heures seront beaucoup plus utiles. Pourtant, il y a une limite à combien de temps compte. Les prévisionnistes ont-ils besoin de mises à jour des données chaque seconde ou chaque dixième de seconde ? À un moment donné, il n'y a tout simplement pas assez de variation dans les données collectées sur des intervalles très courts pour valoriser la dépense.

Le même type de pensée est important lors du calcul de la latence acceptable dans la conception des systèmes d'analyse d'entreprise. Un grand détaillant veut-il savoir combien de chemises bleues se vendent sur une base seconde ? Probablement pas. Les données horaires sur les ventes et les stocks sont-elles suffisantes ? Considérant combien il serait difficile de faire un changement significatif dans les stocks en moins d'une heure, oui, c'est probablement suffisant. Obtenir de meilleures performances coûterait de l'argent qui pourrait être mieux dépensé ailleurs.

D'autre part, les rapports sur les données de vente qui sont exactes dans quelques heures ou même quelques jours pourraient être très utiles. Les dirigeants peuvent vouloir savoir quels articles les gens qui achètent des chemises bleues achètent également, même si ce n'est pas dans le même cas d'achat. Ils pourraient créer des bundles de vente (pensez aux offres "Buy the look") basés sur ces données. De même, les acheteurs en ligne apprécient les recommandations "Les gens qui ont acheté ceci, ont également acheté cela". La latence dans la collecte de données "Les gens ont aussi acheté" peut donc être beaucoup plus critique que le nombre de chemises vendues. La différence entre avoir les rapports des gestionnaires de magasin atterrir dans leurs boîtes de réception tous les jours environ et les laisser extraire les données en quelques secondes peut être un véritable changeur de jeu.

Ainsi, alors que la latence affecte la façon dont les données sont collectées, comment elles sont traitées et comment elles sont mises à disposition pour une analyse future, décider quel domaine à améliorer doit commencer par une compréhension du défi commercial. La collecte de données doit être aussi rapide que nécessaire pour l'entreprise, mais dépenser de l'argent pour la rendre plus rapide pourrait être un investissement peu judicieux. La clé est de se concentrer sur les domaines où les investissements dans les nouvelles technologies auront le plus d'impact.

Pendant ce temps, le passage d'un système qui nécessite un processus ETL avant que l'analyse puisse commencer à un système qui permet de stocker les données dans un environnement de base de données avancé pourrait permettre aux chefs d'entreprise de comprendre plus rapidement les tendances, voire en temps réel. L'ajout de fonctionnalités en libre-service pour que les chefs d'entreprise puissent générer des analyses communes réduira également une autre source de latence.

Cela s'inscrit dans le concept de latence de l'activité, c'est-à-dire le délai entre le moment où un événement inattendu affectant les performances futures survient et le moment où votre organisation agit sur ces informations.

Il est crucial de gérer la latence car elle peut avoir un impact considérable sur l'expérience utilisateur et la satisfaction. Une latence élevée peut entraîner des temps de chargement lents, des retards de traitement des demandes et des performances globalement médiocres. La surveillance et l'optimisation des niveaux de latence en valent la peine. En réduisant la latence, les entreprises peuvent améliorer la satisfaction des clients et des collaborateurs.

Les hyperscalers d'aujourd'hui ont forgé des partenariats qui permettent un accès complet à vos données dans les installations de tout fournisseur de cloud, et sans latence. Voici comment, plus 10 autres avancées à savoir maintenant.

FAQ sur la latence des données

Quelle est la latence acceptable des données ?

La latence acceptable des données varie en fonction de l'organisation ou du système qui les utilise. En général, la latence acceptable des données fait référence au temps maximal nécessaire pour que les données soient transmises ou traitées de leur source vers leur destination afin de fournir des performances acceptables. Dans certains cas, comme dans les systèmes financiers ou les applications stratégiques, le traitement des données en temps réel avec une latence minimale est crucial. Dans d'autres cas, comme dans l'analyse de données ou le reporting où les mises à jour de données peuvent être traitées par lots, un léger retard dans la transmission ou le traitement des données peut être acceptable. En fin de compte, ce qui constitue une latence de données "acceptable" est déterminé par les priorités spécifiques et les cas d'utilisation de l'organisation ou du système.

Dans les serveurs, la latence entre les adaptateurs de mémoire, de CPU et de réseau est mesurée en microsecondes. Dans les systèmes de stockage à grande échelle, ce sont des millisecondes. Lorsque les clients effectuent des achats, la validation des transactions dans le stockage peut prendre une fraction de seconde environ. Et lorsque les humains sont impliqués, la latence peut être beaucoup plus longue. La détermination de la latence acceptable dépendra presque toujours de l'application en cours.

Comment gérez-vous la latence des données ?

Les stratégies de gestion de la latence des données dépendent de l'origine de la latence. Si une organisation ne voit qu'une poignée de plaintes concernant la latence, le problème peut provenir du côté de l'utilisateur. Les causes possibles incluent des appareils obsolètes ou une connexion Internet lente. Pour les problèmes généralisés, c'est un signe que la cause repose du côté de l'organisation. Une suite de bonnes pratiques pour aider à corriger la latence des données peut inclure l'implémentation d'outils de mise en cache, d'outils de surveillance, de meilleures stratégies de compression des données et la prise en compte d'un meilleur fournisseur d'infrastructure cloud.

Le débit de données affecte-t-il la latence ?

Le débit de données fait référence à la vitesse à laquelle les données sont envoyées sur un réseau, généralement exprimée en octets par seconde. La latence des données est liée à cela, car il s'agit de l'intervalle de temps entre la demande et la réponse. Des débits de données plus élevés peuvent aider à réduire la latence des données, car des débits de données plus élevés garantissent une meilleure bande passante et des performances globales. Toutefois, la latence des données ne dépend pas nécessairement directement du débit, car d'autres variables peuvent s'appliquer. Ils sont suffisamment liés, cependant, que les problèmes de débit de données peuvent indiquer des problèmes de latence et vice versa.

Comment réduire la variation de latence ?

Pour les utilisateurs, la variation de latence peut provenir de quelque chose d'aussi simple que la connexion Internet peu fiable ou la faible mémoire/stockage sur un appareil ; la résolution de ces problèmes efface généralement la variation. Du côté du fournisseur, la variation de latence peut être un symptôme de demandes de calcul soudaines consommant de la puissance de traitement ou de la bande passante. La surveillance d'application de bout en bout et la surveillance générale du réseau doivent fournir des informations sur les raisons pour lesquelles des pics de latence soudains se produisent. Une fois la cause première isolée, les équipes informatiques peuvent mettre en œuvre des stratégies d'optimisation.