Michael Chen | Content Strategist | 13. Mai 2024
Die Datenlatenz bezieht sich auf die Zeitverzögerung zwischen dem Senden von Daten zur Verwendung und dem Erzeugen des gewünschten Ergebnisses. Die Latenz kann durch eine Reihe von Faktoren verursacht werden, darunter Netzwerküberlastung, Hardwarebeschränkungen, Softwareverarbeitungszeiten, Abstand zwischen Endpunkten und die Konfiguration eines Systems.
Betrachten Sie die Reaktionsverzögerung zwischen dem Auftreffen auf das Bremspedal Ihres Autos und dem Stoppen des Fahrzeugs. In der Praxis neigen Menschen dazu, innerhalb einer Sekunde zu bremsen, wenn sie die Notwendigkeit wahrnehmen, dies zu tun. Stellen Sie sich vor, wie destabilisierend es wäre, wenn es dann eine Verzögerung von zwei oder drei Sekunden gäbe, bevor das System eingeschaltet würde. Das Ergebnis wären drastisch reduzierte Geschwindigkeitsbegrenzungen, und der sichere Abstand zwischen den Autos müsste stark zunehmen. Zum Glück, wenn etwas nicht stimmt, beginnt das Bremsen in Zehntelsekunden, und wir nehmen dies als eine sofortige Echtzeitantwort wahr.
Die Latenz in jedem Kontrollsystem – einschließlich der Internet of Things-(IoT-)Technologie – wird die Präzision begrenzen, mit der es arbeiten kann. Ein beliebter IoT-Anwendungsfall ist die Smart Home-Technologie, mit der wir verschiedene Versorgungsunternehmen wie Beleuchtung, Heizung, Sicherheit und Geräte über einen zentralen Smart Hub oder eine mobile Anwendung steuern können. Betrachten Sie einen intelligenten Thermostat. Wenn Sie es auf 70 Grad einstellen, aufgrund der Latenz im System, schwankt die Temperatur zwischen etwa 69 und 71. Aber lassen Sie uns sagen, dass Sie anstatt einer zwei- oder drei-Grad-Schwankung nur eine 0,1-Grad-Schwankung wünschen. Aufgrund der Latenz zwischen der laufenden Wärme oder A / C und dem Thermostat, der die Änderung registriert, würde die tatsächliche Temperatur fast nie in diesem sehr engen 0,1-Grad-Bereich liegen. So schaltet die Nabe jede Minute zwischen A/C und Wärme. Dies wäre nicht nur schwierig für Ihre mechanischen Systeme, Sie würden auch eine unhöfliche Überraschung bekommen, wenn Ihre nächste Energierechnung ankam.
Die Datenlatenzzeit ist die Zeit, die benötigt wird, um Daten von ihrer Quelle zu ihrem Ziel zu übertragen, oder die Zeit, die benötigt wird, um Daten zu verarbeiten und zur Verwendung zur Verfügung zu stellen. Diese Verzögerung kann durch verschiedene Faktoren verursacht werden, darunter Netzwerküberlastung und Hardwarebeschränkungen, die Konfiguration einer Datenerfassung und Engpässe in Datenverarbeitungssystemen.
Die Datenlatenz kann erhebliche negative Auswirkungen haben. Sie kann auch ein Hebel sein, den die IT nutzen kann, um die Kosten für die Datenerfassung und -übertragung mit den Geschäftsanforderungen in Einklang zu bringen. In einigen Branchen – insbesondere solchen, die Echtzeit- oder zeitkritische Informationen benötigen, wie z. B. der Finanzbranche – kann selbst eine kleine Verzögerung der Datenübertragung zu verpassten Chancen oder falschen Preisen führen. Im Allgemeinen werden Unternehmen daran arbeiten, die für die Entscheidungsfindung und die optimale Leistung in verschiedenen Anwendungen entscheidende Geschwindigkeit gegen die Kosten einer schnelleren Reaktion abzuwägen – und dennoch gibt es eine Grenze dafür, wie viel Latenz aus einem System herausgetrieben werden kann.
Ob ein digitales System unbrauchbar wird oder nicht, hängt von einer Reihe von Faktoren ab.
In Kontrollsystemen – also solchen, die andere Systeme oder Geräte verwalten, leiten und befehlen – verursacht eine übermäßige Latenz Instabilität und kann das System sogar außer Betrieb setzen. In Echtzeit-Anwendungsfällen wie Sprach- und Videoanrufen ist die Latenz bestenfalls lästig und macht das System über einen bestimmten Schwellenwert unbrauchbar. Und bei der Datenanalyse kann die Latenz den Prozess bis zu dem Punkt verlangsamen, an dem der fertige Analyse-Moment gerendert wird, weil die Entscheidungsträger ohne ihn weiter zogen.
Schauen wir uns einige Arten von Latenz an.
Menschen sind sehr intolerant gegenüber Datenverlust in Audio und Video. Wenn sich Daten in Audioanwendungen um mehr als eine Viertelsekunde verzögern, werden sie nutzlos und als Klick- oder Pop- oder anderweitig verstörtes Audio wahrgenommen. Dasselbe gilt für Video. Verspätete Daten sind genauso schlecht wie verlorene Daten. Algorithmen können versuchen, zu kompensieren, aber wenn die Netzwerklatenz etwa 300 Millisekunden überschreitet, wird Echtzeitvideo unerträglich beschädigt.
In modernen Netzwerken beträgt die Latenz typischerweise nur zehn Millisekunden, und Video- und Audioanwendungen laufen sehr gut. Netzwerke erkennen auch Echtzeit-Traffic und priorisieren ihn, so dass die Latenz die Daten bei der Ankunft nicht nutzlos macht.
In nahezu Echtzeitanwendungen ist Latenz ein Problem. Bei der Erfassung von Daten von Sensoren in einer entfernten Fabrikhalle zur Überwachung auf Störungen kann beispielsweise die Latenzzeit die Reaktionszeit bis zum Stillstand einer Produktionslinie verlangsamen, bevor ein Techniker eingreifen kann. Aber eine schnellere Informationsfreigabe erfordert sehr leistungsstarke Weitverkehrsnetze, die teuer sind. Die Antwort besteht darin, sogenannte Edge-Computing-Systeme zu verwenden, die Speicher und Rechenleistung näher an die Maschinen verschieben, um die Daten zu erstellen, die Anforderungen an den Datentransport zu reduzieren und so die Latenz zu reduzieren.
Bislang erfordern die Systeme, über die wir gesprochen haben, eine Latenz von unter einer Sekunde, um effektiv zu arbeiten. Geschäftsdaten und deren Analyse werden in der Nähe der Erstellungszeit immer nützlicher sein. Aber abgesehen von dieser sehr breiten Aussage ist es schwer, genau zu sagen, wie viel Latenz akzeptabel ist, ohne an die jeweilige Anwendung zu denken.
Bei Wetterprognosen könnten Daten über die atmosphärischen Bedingungen der letzten Woche dazu beitragen, Wettermuster für diese Woche zu identifizieren, aber neuere Daten der letzten Tage und Stunden werden viel nützlicher sein. Dennoch gibt es eine Grenze, wie viel Zeit wichtig ist. Benötigen Wetterprognosen Datenaktualisierungen jede Sekunde oder jede Zehntelsekunde? Irgendwann gibt es einfach nicht genug Variationen in Daten, die in sehr kurzen Intervallen gesammelt wurden, um die Kosten zu tragen.
Die gleiche Art von Denken ist wichtig, wenn man berechnet, wie viel Latenz beim Design von Geschäftsanalysesystemen akzeptabel ist. Will ein großer Einzelhändler wissen, wie viele blaue Hemden auf Sekundenbasis verkauft werden? Wahrscheinlich nicht. Sind stündliche Verkaufs- und Bestandsdaten ausreichend? Wenn man bedenkt, wie schwierig es wäre, eine sinnvolle Änderung des Bestands in weniger als einer Stunde vorzunehmen, ja, das ist wahrscheinlich ausreichend. Eine bessere Leistung zu erzielen, würde Geld kosten, das woanders besser ausgegeben werden könnte.
Auf der anderen Seite könnten Berichte über Verkaufsdaten, die innerhalb weniger Stunden oder sogar ein paar Tagen korrekt sind, sehr wertvoll sein. Führungskräfte möchten vielleicht wissen, welche Artikel Menschen, die blaue Hemden kaufen, auch kaufen, auch wenn es nicht im selben Einkaufsfall ist. Sie könnten auf der Grundlage dieser Daten Vertriebs-Bundles erstellen – denken Sie an "Buy the Look"-Angebote. Ebenso schätzen Online-Käufer "Menschen, die das gekauft haben, haben das auch gekauft" Empfehlungen. Die Latenz beim Sammeln von "Menschen kauften" Daten könnte also viel kritischer sein als einfach, wie viele Hemden verkauft wurden. Der Unterschied zwischen den Berichten von Filialmanagern, die jeden Tag in ihren Posteingängen landen, und der Möglichkeit, die Daten in Sekundenschnelle abzurufen, kann ein echter Business-Wechsel sein.
Während sich die Latenz also darauf auswirkt, wie Daten gesammelt, wie sie verarbeitet und für zukünftige Analysen verfügbar gemacht werden, sollte die Entscheidung, welcher Bereich verbessert werden soll, mit einem Verständnis der geschäftlichen Herausforderung beginnen. Die Datenerfassung muss so schnell sein, wie das Unternehmen benötigt, aber Geld auszugeben, um es schneller zu machen, könnte eine unkluge Investition sein. Der Schlüssel liegt darin, sich auf Bereiche zu konzentrieren, in denen neue Technologieinvestitionen die größten Auswirkungen haben werden.
Der Wechsel von einem System, das einen ETL-Prozess vor der Analyse erfordert, zu einem System, mit dem Daten in einer erweiterten Datenbankumgebung gespeichert werden können, könnte es Führungskräften ermöglichen, schneller mehr Trends zu verstehen – möglicherweise sogar in Echtzeit. Durch das Hinzufügen von Self-Service-Funktionen, damit Führungskräfte gemeinsame Analysen erstellen können, wird auch eine weitere Latenzquelle reduziert.
Dies hängt mit dem Konzept der Geschäftslatenz zusammen, der Zeit zwischen einem unerwarteten Ereignis, das sich auf die zukünftige Performance auswirkt, und dem Zeitpunkt, in dem Ihre Organisation auf diese Informationen reagiert.
Es ist wichtig, die Latenz zu verwalten, da sie sich stark auf die Benutzererfahrung und -zufriedenheit auswirken kann. Hohe Latenzzeiten können zu langsamen Ladezeiten, Verzögerungen bei der Verarbeitung von Anforderungen und insgesamt schlechter Performance führen. Die Überwachung und Optimierung der Latenzgrade lohnt sich. Durch die Reduzierung der Latenz können Unternehmen die Kunden- und Mitarbeiterzufriedenheit verbessern.
Heutige Hyperscalers haben Partnerschaften geschlossen, die einen vollständigen Zugriff auf Ihre Daten in den Einrichtungen jedes Cloud-Anbieters ermöglichen – und das ohne Latenz. Hier ist, wie, plus 10 weitere Fortschritte zu wissen jetzt.
Was ist eine akzeptable Datenlatenz?
Die zulässige Datenlatenz variiert je nach Organisation oder System, das die Daten verwendet. Im Allgemeinen bezieht sich die akzeptable Datenlatenz auf die maximale Zeit, die es dauern kann, bis Daten von ihrer Quelle an ihr Ziel übertragen oder verarbeitet werden, um eine akzeptable Performance zu erzielen. In einigen Fällen, z. B. in Finanzsystemen oder geschäftskritischen Anwendungen, ist die Echtzeitdatenverarbeitung mit minimaler Latenz von entscheidender Bedeutung. In anderen Fällen, z. B. bei Datenanalysen oder Berichten, bei denen Datenaktualisierungen im Batchverfahren durchgeführt werden können, kann eine leichte Verzögerung bei der Datenübertragung oder -verarbeitung akzeptabel sein. Letztendlich wird die "akzeptable" Datenlatenz durch die spezifischen Prioritäten und Anwendungsfälle der Organisation oder des Systems bestimmt.
In Servern wird die Latenz zwischen Speicher-, CPU- und Netzwerkadaptern in Mikrosekunden gemessen. Bei großen Speichersystemen sind es Millisekunden. Wenn Kunden Einkäufe tätigen, kann die Verpflichtung von Transaktionen zur Speicherung einen Bruchteil einer Sekunde dauern. Und wenn Menschen beteiligt sind, kann die Latenz viel länger sein. Die Bestimmung der akzeptablen Latenzzeit hängt fast immer von der jeweiligen Anwendung ab.
Wie gehen Sie mit der Datenlatenz um?
Strategien zur Behandlung der Datenlatenz hängen vom Ursprung der Latenz ab. Wenn eine Organisation nur eine Handvoll Beschwerden in Bezug auf die Latenz sieht, kann das Problem auf der Benutzerseite auftreten. Mögliche Ursachen sind veraltete Geräte oder eine langsame Internetverbindung. Bei weit verbreiteten Problemen ist dies ein Zeichen dafür, dass die Ursache auf der Organisationsseite liegt. Eine Reihe von Best Practices zur Behebung der Datenlatenz kann die Implementierung von Caching-Tools, Überwachungstools, bessere Datenkomprimierungsstrategien und die Berücksichtigung eines besseren Cloud-Infrastrukturanbieters umfassen.
Beeinflusst die Datenrate die Latenz?
Die Datenrate bezieht sich auf die Geschwindigkeit, mit der Daten über ein Netzwerk gesendet werden, in der Regel in Byte pro Sekunde. Die Datenlatenz ist damit verbunden, da es sich um die Zeitlücke zwischen Anforderung und Antwort handelt. Höhere Datenraten können dazu beitragen, die Datenlatenz zu reduzieren, da höhere Datenraten eine bessere Bandbreite und Gesamtleistung gewährleisten. Die Datenlatenz ist jedoch nicht unbedingt direkt von der Datenrate abhängig, da andere Variablen angewendet werden können. Sie sind jedoch so verwandt, dass Probleme mit der Datenrate auf Latenzprobleme hinweisen können und umgekehrt.
Wie können Latenzschwankungen reduziert werden?
Für Benutzer können Latenzschwankungen auf etwas so Einfaches wie unzuverlässige Internetverbindung oder wenig Speicher/Speicher auf einem Gerät zurückzuführen sein. Bei der Lösung dieser Probleme wird die Variation normalerweise gelöscht. Auf der Provider-Seite kann Latenzvariation ein Symptom für plötzliche Compute-Anforderungen sein, die Verarbeitungsleistung oder Bandbreite in Anspruch nehmen. End-to-End-Anwendungsüberwachung sowie allgemeine Netzwerküberwachung sollten Aufschluss darüber geben, warum plötzliche Latenzspitzen auftreten. Sobald die Ursache isoliert ist, können IT-Teams Optimierungsstrategien implementieren.