Latenz ist das Maß der Zeitverzögerung in einem System. Netzwerklatenz ist die Zeit, die Daten in einem Netzwerk von einem Punkt zum anderen brauchen. Ein Netzwerk mit hoher Latenz reagiert langsamer, eines mit geringer Latenz schneller.
Obwohl Daten das Internet im Prinzip fast mit Lichtgeschwindigkeit durchqueren sollten, bewegen sie sich in der Praxis etwas langsamer. Die Verzögerungen ergeben sich aus der Entfernung, der Internet-Infrastruktur, der Größe der Datenpakete, der Überlastung des Netzwerks und anderen veränderlichen Größen.1 Die Summe dieser zeitlichen Verzögerungen wird dann als Latenz eines Netzwerks bezeichnet.
Unternehmen können die Latenz reduzieren und die Produktivität und Benutzerfreundlichkeit verbessern:
Eine geringe Latenz im Netzwerk beizubehalten, ist wichtig, da sie sich direkt auf Produktivität, Zusammenarbeit, Anwendungsleistung und Benutzererfahrung auswirkt. Je höher die Latenz (und desto langsamer demzufolge die Antwortzeiten), desto mehr leiden diese Bereiche. Eine geringe Latenz ist besonders bei der digitalen Transformation wichtig, wenn Unternehmen zunehmend auf cloudbasierte Anwendungen und Services im Internet der Dinge angewiesen sind.
Beginnen wir mit einem offensichtlichen Beispiel: Wenn eine hohe Latenz im Netzwerk zu einer unzureichenden Anwendungsleistung oder zu langsamen Ladezeiten für die Kunden eines Unternehmens führt, werden sich diese wahrscheinlich nach alternativen Lösungen umsehen. Private und geschäftliche Benutzer erwarten heutzutage mehr denn je besonders schnelle Leistung. Rufen Ihre Unternehmensanwendungen Echtzeitdaten aus verschiedenen Quellen ab, um Empfehlungen zur Ressourcenbeschaffung zu geben, kann eine hohe Latenz zu Effizienzverlusten führen. Diese Ineffizienzen können sich negativ auf die Leistung und den Wert einer Anwendung auswirken.
Jedes Unternehmen wünscht sich geringe Latenz. In Branchen und bei Anwendungsfällen mit Sensordaten oder High-Performance-Computing, wie z. B. in der automatisierten Fertigung, bei videogestützten Operationen per Fernzugriff (beispielsweise an Kameras bei chirurgischen Eingriffen), beim Live-Streaming oder Hochfrequenzhandel, ist geringe Latenz jedoch für den Erfolg unerlässlich.
Hohe Latenz kann auch zu unnötigen Ausgaben führen. Nehmen wir an, ein Unternehmen möchte die Anwendungs- und Netzwerkleistung verbessern, indem es sein Budget für Rechen-, Speicher- und Netzwerkressourcen erhöht oder umverteilt. Wenn bestehende Latenzprobleme nicht behoben werden, kann es passieren, dass die Rechnung am Ende höher ausfällt, obwohl das Unternehmen keine Verbesserung der Leistung, Produktivität oder Kundenzufriedenheit feststellen kann.
Netzwerklatenz wird in Millisekunden gemessen: Berechnet wird das Zeitintervall zwischen der Einleitung eines Sendevorgangs von einem Quellsystem und dem Abschluss des entsprechenden Empfangsvorgangs durch das Zielsystem.2
Eine einfache Möglichkeit zur Messung der Latenz ist der so genannte „Ping“-Befehl, ein Tool zur Netzwerkdiagnose, mit dem Sie die Verbindung zwischen zwei Geräten oder Servern testen können. Bei diesen Geschwindigkeitstests wird die Latenz oft auch als Ping-Rate bezeichnet.
Im Rahmen eines solchen Tests wird ein ICMP-Echoanfragepaket (ICMP steht für „Internet Control Message Protocol“) an einen Zielserver gesendet und zurückgeschickt. Ein Ping-Befehl berechnet, wie lange das Paket benötigt, um von der Quelle zum Ziel und wieder zurück zu gelangen. Diese Gesamtübertragungszeit wird als „round trip time“ (RTT) bezeichnet und entspricht ungefähr dem Doppelten der Latenz, da die Daten zunächst zum Server und dann wieder zurück müssen. Das Ping-Verfahren gilt weder als exakte Methode zur Messung der Latenz noch als idealer Test, um Latenzprobleme im Netzwerk in einer Übertragungsrichtung zu erkennen, da die Daten über verschiedene Netzwerkpfade übertragen werden und bei jedem Übertragungsabschnitt unterschiedliche Szenarien auftreten können.
Latenz, Bandbreite und Durchsatz sind miteinander verwandt und werden manchmal irrtümlich synonym verwendet, beziehen sich aber jeweils auf unterschiedliche Merkmale eines Netzwerks. Latenz haben wir bereits als die Zeit genannt, die ein Datenpaket zur Übertragung zwischen zwei Punkten über eine Netzwerkverbindung benötigt.
Die Bandbreite ist ein Maß für die Datenmenge, die ein Netzwerk zu einem bestimmten Zeitpunkt passieren kann. Sie wird in Dateneinheiten pro Sekunde gemessen, z. B. Megabit pro Sekunde (Mbit/s) oder Gigabit pro Sekunde (GBit/s). Die Bandbreite ist also der Wert, den Ihr Internet- oder Telefonanbieter Ihnen bei den Optionen für Ihre Internetverbindung nennt. Verwirrung stiftet der Begriff deswegen, weil er kein Maß für die Geschwindigkeit, sondern für die Kapazität ist. Eine hohe Bandbreite kann zwar eine hohe Internetgeschwindigkeit begünstigen, die jedoch auch von anderen Faktoren wie Latenz und Durchsatz abhängt.
Der Durchsatz ist ein Maß für die durchschnittliche Datenmenge, die in einem bestimmten Zeitfenster tatsächlich ein Netzwerk passiert, wobei die Auswirkung der Latenz berücksichtigt wird. Der Durchsatz gibt an, wie viele Datenpakete ankommen und wie viele verloren gehen. Der Wert wird normalerweise in Bits pro Sekunde, manchmal auch in Daten pro Sekunde gemessen.
Ein weiterer Faktor bei der Netzwerkleistung ist der Jitter. Jitter bezieht sich auf die Schwankungen bei der Latenz von Paketübertragungen in einem Netzwerk. Konstante Latenz ist besser als ein hoher Jitter, der zu Paketverlusten führen kann – also zu Datenpaketen, die während der Übertragung verloren gehen und nie an ihrem Ziel ankommen.
Es gibt eine einfache, aber hilfreiche Methode, sich die Beziehung zwischen Latenz, Bandbreite und Durchsatz zu merken: Die Bandbreite ist die Datenmenge, die über ein Netzwerk übertragen werden kann, der Durchsatz ist das Maß dafür, wie viel tatsächlich pro Sekunde übertragen wird, und die Latenz ist die Zeit, die dafür benötigt wird.
Um die verschiedenen Faktoren zu verstehen, die Latenzen verursachen können, kann man sich den Weg der Daten vom Client zum Server und zurück visualisieren. Zu den häufigsten Ursachen für Netzwerklatenz zählen:
Einfach ausgedrückt gilt, je größer die Entfernung zwischen dem anfragenden Client und dem antwortenden Server, desto höher ist die Latenz. Der Unterschied zwischen einem Server in München und einem Server in Frankfurt, die jeweils auf eine Benutzeranfrage aus Hamburg antworten, beträgt vielleicht nur wenige Millisekunden. Doch in diesem Szenario macht das viel aus, und diese Millisekunden summieren sich.
Betrachten wir als Nächstes das Medium, über das Daten übertragen werden. Handelt es sich um ein Netzwerk aus Glasfaserkabeln (in der Regel geringere Latenz), ein Funknetzwerk (in der Regel höhere Latenz) oder ein komplexes Geflecht aus Netzwerken mit mehreren Medien, wie es häufig der Fall ist?
Das zur Datenübertragung verwendete Medium beeinflusst die Latenz. Dies gilt auch dafür, wie oft die Daten Netzwerkgeräte wie Router passieren müssen, um von einem Netzwerksegment zum nächsten zu gelangen (Netzwerk-Hops), bevor sie ihr Ziel erreichen. Je mehr „Hops“, also Sprünge, desto höher die Latenz.
Sowohl die Größe der Datenpakete als auch die Gesamtmenge der Daten in einem Netzwerk wirken sich auf die Latenz aus. Größere Pakete brauchen länger zur Übertragung, und wenn das Datenvolumen die Verarbeitungskapazität der Netzwerkinfrastruktur übersteigt, kommt es wahrscheinlich zu Engpässen und erhöhter Latenz.
Sind die Server, Router, Hubs, Switches und andere Netzwerkgeräte veraltet oder in nicht ausreichender Zahl verfügbar, kann auch dies die Antwortzeiten verlangsamen. Empfangen die Server beispielsweise mehr Daten, als sie verarbeiten können, verzögern sich die Pakete, wodurch Seitenaufbau, Downloads und Anwendungsleistung langsamer werden.
Größenlastige Seitenelemente wie Bilder und Videos, Ressourcen, die das Rendern blockieren, und unnötige Zeichen im Quellcode können zu höherer Latenz beitragen.
Manchmal wird Latenz auch durch Faktoren auf Seiten des Benutzers verursacht, zum Beispiel durch unzureichende Bandbreite, eine schlechte Internetverbindung oder veraltete Geräte.
Um die Netzwerklatenz zu reduzieren, könnte ein Unternehmen mit dieser Netzwerkbewertung beginnen:
- Werden unsere Daten auf dem kürzesten und effizientesten Weg übertragen?
- Verfügen unsere Anwendungen über die notwendigen Ressourcen für eine optimale Leistung?
- Ist unsere Netzwerkinfrastruktur auf dem neuesten Stand und für die Aufgabe geeignet?
Beginnen wir mit dem Entfernungsproblem. Wo befinden sich die Benutzer? Und wo stehen die Server, die auf die Anfragen der Benutzer reagieren? Wenn ein Unternehmen Server und Datenbanken so verteilt, dass sie sich näher an den Benutzern befinden, müssen Daten nicht mehr so weite Entfernungen zurücklegen und es kommt zu weniger ineffizientem Routing und Netzwerk-Hopping.
Eine Möglichkeit zur globalen Verteilung von Daten ist ein Content Delivery Network (auch als CDN bezeichnet). Mit einem Netzwerk aus verteilten Servern kann ein Unternehmen seine Inhalte näher an den Endbenutzern speichern. Dadurch reduziert sich die Entfernung, die Datenpakete zurücklegen müssen. Was aber, wenn ein Unternehmen nicht nur zwischengespeicherte Inhalte bereitstellen möchte?
Edge Computing ist eine nützliche Strategie, um die Cloud-Umgebung eines Unternehmens mit dem zentralen Rechenzentrum auf physische Standorte auszuweiten, die sich näher an den Benutzern und Daten befinden. Mit Edge Computing können Anwendungen in größerer physischer Nähe zu den Endbenutzern ausgeführt werden, um die Latenz zu verringern.
Ein Subnetz ist im Prinzip ein kleineres Netzwerk in einem größeren Netzwerk. Subnetze gruppieren Endpunkte, die oft miteinander kommunizieren. Das Routing wird effizienter und die Latenz verringert sich.
Herkömmliche Überwachungstools sind nicht schnell oder gründlich genug, um proaktiv Leistungsprobleme in komplexen modernen Umgebungen zu erkennen und zu kontextualisieren. Um diesen Problemen vorzubeugen, können Unternehmen fortschrittliche Lösungen einsetzen, die eine durchgängige Observability in Echtzeit und eine Zuordnung von Abhängigkeiten ermöglichen. Mit diesen Funktionen lassen sich Probleme mit der Anwendungsleistung, die zur Netzwerklatenz beitragen, erkennen, kontextualisieren, beheben und verhindern.
Wenn den Workloads nicht die entsprechenden Rechen-, Speicher- und Netzwerkressourcen zur Verfügung stehen, steigt die Latenz und die Leistung nimmt ab. Dieses Problem durch das Bereitstellen von mehr Ressourcen also nötig zu beheben, ist ineffizient und unwirtschaftlich. Es ist unmöglich, eine nicht statische Nachfrage manuell an die Ressourcen in komplexen modernen Infrastrukturen anzupassen.
Eine Lösung zur Verwaltung von Anwendungsressourcen (Application Resource Management, ARM) kann zur Behebung von Ressourcenprobleme beitragen und die Latenz verringern. Sie analysiert die Ressourcenauslastung sowie die Leistung von Anwendungen und Infrastrukturkomponenten kontinuierlich in Echtzeit.
Wenn eine ARM-Plattform beispielsweise erkennt, dass eine Anwendung wegen eines Ressourcenkonflikts eine hohe Latenz aufweist, kann sie der Anwendung automatisch die erforderlichen Ressourcen zuweisen oder sie auf einen weniger ausgelasteten Server verlagern. Solche automatisierten Aktionen tragen dazu bei, die Latenz zu reduzieren und die Leistung zu verbessern.
Tests wie Ping-Befehle sind eine einfache Möglichkeit, um die Netzwerklatenz zu messen, reichen aber nicht aus, um Probleme zu erkennen, geschweige denn, sie zu beheben. Unternehmen können eine Lösung zur Verwaltung der Netzwerkleistung einsetzen. Diese einheitliche Plattform unterstützt die Teams dabei, Probleme mit der Netzwerkleistung zu erkennen, zu beheben und zu vermeiden und so die Latenz zu reduzieren.
IT-Teams können sicherstellen, dass sie aktuelle Hardware-, Software- und Netzwerkkonfigurationen verwenden und dass die Infrastruktur des Unternehmens den aktuellen Anforderungen gewachsen ist. Die regelmäßige Überprüfung und Wartung des Netzwerks kann ebenfalls dazu beitragen, Leistungsprobleme und Latenzen zu reduzieren.
Entwickler können Maßnahmen ergreifen, damit der Seitenaufbau nicht die Latenzen erhöht, z. B. Videos, Bilder und andere Seiteninhalte so optimieren, dass sie schneller geladen werden, und Codeverkleinerung.
IBM Cloud Pak for Network Automation ist ein Cloud Pak, das die Automatisierung und Orchestrierung von Netzwerkinfrastrukturbetrieben ermöglicht.
Cloud-Netzwerklösungen von IBM bieten eine leistungsstarke Konnektivität, um Ihre Apps und Ihr Unternehmen zu unterstützen.
Konsolidieren Sie die Rechenzentrumsunterstützung mit IBM Technology Lifecycle Services für Cloud-Netzwerke und mehr.
1„Internet at the Speed of Light“, Yale.edu, 3. Mai 2022.
2 „Effect of the network on performance“, IBM.com, 3. März 2021