Was versteht man unter Latenz?

Computerprogrammierer, die in einem modernen Büro arbeiten

Autoren

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

Was versteht man unter Latenz?

Latenz ist das Maß der Zeitverzögerung in einem System. Netzwerklatenz ist die Zeit, die Daten in einem Netzwerk von einem Punkt zum anderen brauchen. Ein Netzwerk mit hoher Latenz reagiert langsamer, eines mit geringer Latenz schneller.

Obwohl Daten das Internet im Prinzip fast mit Lichtgeschwindigkeit durchqueren sollten, bewegen sie sich in der Praxis etwas langsamer. Die Verzögerungen ergeben sich aus der Entfernung, der Internet-Infrastruktur, der Größe der Datenpakete, der Überlastung des Netzwerks und anderen veränderlichen Größen.1 Die Summe dieser zeitlichen Verzögerungen wird dann als Latenz eines Netzwerks bezeichnet.

Unternehmen können die Latenz reduzieren und die Produktivität und Benutzerfreundlichkeit verbessern:

  • Verwendung von Content Delivery Networks, Edge Computing und Subnetting zur Verteilung von Daten und Weiterleitung des Datenverkehrs

  • Aufrechterhaltung einer leistungsfähigen, stets aktuellen Infrastruktur

  • Einsatz von Lösungen zum Application Performance Management, zur Ressourcenzuweisung und zur Workload-Platzierung
Luftaufnahme einer Autobahn

Bleiben Sie in der Cloud

Abonnieren Sie den wöchentlichen Think-Newsletter und erhalten Sie Tipps von Experten zur Optimierung von Multi-Cloud-Einstellungen in Zeiten von KI.

Warum ist die Netzwerklatenz wichtig?

Eine geringe Latenz im Netzwerk beizubehalten, ist wichtig, da sie sich direkt auf Produktivität, Zusammenarbeit, Anwendungsleistung und Benutzererfahrung auswirkt. Je höher die Latenz (und desto langsamer demzufolge die Antwortzeiten), desto mehr leiden diese Bereiche. Eine geringe Latenz ist besonders bei der digitalen Transformation wichtig, wenn Unternehmen zunehmend auf cloudbasierte Anwendungen und Services im Internet der Dinge angewiesen sind.

Beginnen wir mit einem offensichtlichen Beispiel: Wenn eine hohe Latenz im Netzwerk zu einer unzureichenden Anwendungsleistung oder zu langsamen Ladezeiten für die Kunden eines Unternehmens führt, werden sich diese wahrscheinlich nach alternativen Lösungen umsehen. Private und geschäftliche Benutzer erwarten heutzutage mehr denn je besonders schnelle Leistung. Rufen Ihre Unternehmensanwendungen Echtzeitdaten aus verschiedenen Quellen ab, um Empfehlungen zur Ressourcenbeschaffung zu geben, kann eine hohe Latenz zu Effizienzverlusten führen. Diese Ineffizienzen können sich negativ auf die Leistung und den Wert einer Anwendung auswirken.

Jedes Unternehmen wünscht sich geringe Latenz. In Branchen und bei Anwendungsfällen mit Sensordaten oder High-Performance-Computing, wie z. B. in der automatisierten Fertigung, bei videogestützten Operationen per Fernzugriff (beispielsweise an Kameras bei chirurgischen Eingriffen), beim Live-Streaming oder Hochfrequenzhandel, ist geringe Latenz jedoch für den Erfolg unerlässlich.

Hohe Latenz kann auch zu unnötigen Ausgaben führen. Nehmen wir an, ein Unternehmen möchte die Anwendungs- und Netzwerkleistung verbessern, indem es sein Budget für Rechen-, Speicher- und Netzwerkressourcen erhöht oder umverteilt. Wenn bestehende Latenzprobleme nicht behoben werden, kann es passieren, dass die Rechnung am Ende höher ausfällt, obwohl das Unternehmen keine Verbesserung der Leistung, Produktivität oder Kundenzufriedenheit feststellen kann.

NS1 Connect

IBM NS1 Connect

Stärken Sie die Ausfallsicherheit Ihres Netzwerks mit IBM NS1 Connect. In diesem Video erläutern wir den Wert von IBM NS1 Connect für die Ausfallsicherheit und Leistung von Anwendungen.

Wie wird Latenz gemessen?

Netzwerklatenz wird in Millisekunden gemessen: Berechnet wird das Zeitintervall zwischen der Einleitung eines Sendevorgangs von einem Quellsystem und dem Abschluss des entsprechenden Empfangsvorgangs durch das Zielsystem.2

Eine einfache Möglichkeit zur Messung der Latenz ist der so genannte „Ping“-Befehl, ein Tool zur Netzwerkdiagnose, mit dem Sie die Verbindung zwischen zwei Geräten oder Servern testen können. Bei diesen Geschwindigkeitstests wird die Latenz oft auch als Ping-Rate bezeichnet.

Im Rahmen eines solchen Tests wird ein ICMP-Echoanfragepaket (ICMP steht für „Internet Control Message Protocol“) an einen Zielserver gesendet und zurückgeschickt. Ein Ping-Befehl berechnet, wie lange das Paket benötigt, um von der Quelle zum Ziel und wieder zurück zu gelangen. Diese Gesamtübertragungszeit wird als „round trip time“ (RTT) bezeichnet und entspricht ungefähr dem Doppelten der Latenz, da die Daten zunächst zum Server und dann wieder zurück müssen. Das Ping-Verfahren gilt weder als exakte Methode zur Messung der Latenz noch als idealer Test, um Latenzprobleme im Netzwerk in einer Übertragungsrichtung zu erkennen, da die Daten über verschiedene Netzwerkpfade übertragen werden und bei jedem Übertragungsabschnitt unterschiedliche Szenarien auftreten können.

Latenz, Bandbreite und Durchsatz

Latenz, Bandbreite und Durchsatz sind miteinander verwandt und werden manchmal irrtümlich synonym verwendet, beziehen sich aber jeweils auf unterschiedliche Merkmale eines Netzwerks. Latenz haben wir bereits als die Zeit genannt, die ein Datenpaket zur Übertragung zwischen zwei Punkten über eine Netzwerkverbindung benötigt.

Bandbreite

Die Bandbreite ist ein Maß für die Datenmenge, die ein Netzwerk zu einem bestimmten Zeitpunkt passieren kann. Sie wird in Dateneinheiten pro Sekunde gemessen, z. B. Megabit pro Sekunde (Mbit/s) oder Gigabit pro Sekunde (GBit/s). Die Bandbreite ist also der Wert, den Ihr Internet- oder Telefonanbieter Ihnen bei den Optionen für Ihre Internetverbindung nennt. Verwirrung stiftet der Begriff deswegen, weil er kein Maß für die Geschwindigkeit, sondern für die Kapazität ist. Eine hohe Bandbreite kann zwar eine hohe Internetgeschwindigkeit begünstigen, die jedoch auch von anderen Faktoren wie Latenz und Durchsatz abhängt.

Durchsatz

Der Durchsatz ist ein Maß für die durchschnittliche Datenmenge, die in einem bestimmten Zeitfenster tatsächlich ein Netzwerk passiert, wobei die Auswirkung der Latenz berücksichtigt wird. Der Durchsatz gibt an, wie viele Datenpakete ankommen und wie viele verloren gehen. Der Wert wird normalerweise in Bits pro Sekunde, manchmal auch in Daten pro Sekunde gemessen.

Jitter

Ein weiterer Faktor bei der Netzwerkleistung ist der Jitter. Jitter bezieht sich auf die Schwankungen bei der Latenz von Paketübertragungen in einem Netzwerk. Konstante Latenz ist besser als ein hoher Jitter, der zu Paketverlusten führen kann – also zu Datenpaketen, die während der Übertragung verloren gehen und nie an ihrem Ziel ankommen.

Es gibt eine einfache, aber hilfreiche Methode, sich die Beziehung zwischen Latenz, Bandbreite und Durchsatz zu merken: Die Bandbreite ist die Datenmenge, die über ein Netzwerk übertragen werden kann, der Durchsatz ist das Maß dafür, wie viel tatsächlich pro Sekunde übertragen wird, und die Latenz ist die Zeit, die dafür benötigt wird.

Was führt zu Netzwerklatenz?

Um die verschiedenen Faktoren zu verstehen, die Latenzen verursachen können, kann man sich den Weg der Daten vom Client zum Server und zurück visualisieren. Zu den häufigsten Ursachen für Netzwerklatenz zählen:

Die zurückgelegte Entfernung der Daten

Einfach ausgedrückt gilt, je größer die Entfernung zwischen dem anfragenden Client und dem antwortenden Server, desto höher ist die Latenz. Der Unterschied zwischen einem Server in München und einem Server in Frankfurt, die jeweils auf eine Benutzeranfrage aus Hamburg antworten, beträgt vielleicht nur wenige Millisekunden. Doch in diesem Szenario macht das viel aus, und diese Millisekunden summieren sich.

Übertragungsmedium und Netzwerk-Hops

Betrachten wir als Nächstes das Medium, über das Daten übertragen werden. Handelt es sich um ein Netzwerk aus Glasfaserkabeln (in der Regel geringere Latenz), ein Funknetzwerk (in der Regel höhere Latenz) oder ein komplexes Geflecht aus Netzwerken mit mehreren Medien, wie es häufig der Fall ist?

Das zur Datenübertragung verwendete Medium beeinflusst die Latenz. Dies gilt auch dafür, wie oft die Daten Netzwerkgeräte wie Router passieren müssen, um von einem Netzwerksegment zum nächsten zu gelangen (Netzwerk-Hops), bevor sie ihr Ziel erreichen. Je mehr „Hops“, also Sprünge, desto höher die Latenz.

Datenpaketgröße und Netzwerküberlastung

Sowohl die Größe der Datenpakete als auch die Gesamtmenge der Daten in einem Netzwerk wirken sich auf die Latenz aus. Größere Pakete brauchen länger zur Übertragung, und wenn das Datenvolumen die Verarbeitungskapazität der Netzwerkinfrastruktur übersteigt, kommt es wahrscheinlich zu Engpässen und erhöhter Latenz.

Hardwareleistung

Sind die Server, Router, Hubs, Switches und andere Netzwerkgeräte veraltet oder in nicht ausreichender Zahl verfügbar, kann auch dies die Antwortzeiten verlangsamen. Empfangen die Server beispielsweise mehr Daten, als sie verarbeiten können, verzögern sich die Pakete, wodurch Seitenaufbau, Downloads und Anwendungsleistung langsamer werden.

Aufbau der Webseite

Größenlastige Seitenelemente wie Bilder und Videos, Ressourcen, die das Rendern blockieren, und unnötige Zeichen im Quellcode können zu höherer Latenz beitragen.

Faktoren auf Benutzerseite

Manchmal wird Latenz auch durch Faktoren auf Seiten des Benutzers verursacht, zum Beispiel durch unzureichende Bandbreite, eine schlechte Internetverbindung oder veraltete Geräte.

Wie lässt sich Latenz reduzieren?

Um die Netzwerklatenz zu reduzieren, könnte ein Unternehmen mit dieser Netzwerkbewertung beginnen:

- Werden unsere Daten auf dem kürzesten und effizientesten Weg übertragen?

- Verfügen unsere Anwendungen über die notwendigen Ressourcen für eine optimale Leistung?

- Ist unsere Netzwerkinfrastruktur auf dem neuesten Stand und für die Aufgabe geeignet?

Daten global verteilen

Beginnen wir mit dem Entfernungsproblem. Wo befinden sich die Benutzer? Und wo stehen die Server, die auf die Anfragen der Benutzer reagieren? Wenn ein Unternehmen Server und Datenbanken so verteilt, dass sie sich näher an den Benutzern befinden, müssen Daten nicht mehr so weite Entfernungen zurücklegen und es kommt zu weniger ineffizientem Routing und Netzwerk-Hopping.

Eine Möglichkeit zur globalen Verteilung von Daten ist ein Content Delivery Network (auch als CDN bezeichnet). Mit einem Netzwerk aus verteilten Servern kann ein Unternehmen seine Inhalte näher an den Endbenutzern speichern. Dadurch reduziert sich die Entfernung, die Datenpakete zurücklegen müssen. Was aber, wenn ein Unternehmen nicht nur zwischengespeicherte Inhalte bereitstellen möchte?

Edge Computing ist eine nützliche Strategie, um die Cloud-Umgebung eines Unternehmens mit dem zentralen Rechenzentrum auf physische Standorte auszuweiten, die sich näher an den Benutzern und Daten befinden. Mit Edge Computing können Anwendungen in größerer physischer Nähe zu den Endbenutzern ausgeführt werden, um die Latenz zu verringern.

Subnetze

Ein Subnetz ist im Prinzip ein kleineres Netzwerk in einem größeren Netzwerk. Subnetze gruppieren Endpunkte, die oft miteinander kommunizieren. Das Routing wird effizienter und die Latenz verringert sich.

Lösung zur Verwaltung der Anwendungsleistung

Herkömmliche Überwachungstools sind nicht schnell oder gründlich genug, um proaktiv Leistungsprobleme in komplexen modernen Umgebungen zu erkennen und zu kontextualisieren. Um diesen Problemen vorzubeugen, können Unternehmen fortschrittliche Lösungen einsetzen, die eine durchgängige Observability in Echtzeit und eine Zuordnung von Abhängigkeiten ermöglichen. Mit diesen Funktionen lassen sich Probleme mit der Anwendungsleistung, die zur Netzwerklatenz beitragen, erkennen, kontextualisieren, beheben und verhindern.

Ressourcenzuteilung und Workload-Platzierung optimieren

Wenn den Workloads nicht die entsprechenden Rechen-, Speicher- und Netzwerkressourcen zur Verfügung stehen, steigt die Latenz und die Leistung nimmt ab. Dieses Problem durch das Bereitstellen von mehr Ressourcen also nötig zu beheben, ist ineffizient und unwirtschaftlich. Es ist unmöglich, eine nicht statische Nachfrage manuell an die Ressourcen in komplexen modernen Infrastrukturen anzupassen.

Eine Lösung zur Verwaltung von Anwendungsressourcen (Application Resource Management, ARM) kann zur Behebung von Ressourcenprobleme beitragen und die Latenz verringern. Sie analysiert die Ressourcenauslastung sowie die Leistung von Anwendungen und Infrastrukturkomponenten kontinuierlich in Echtzeit.

Wenn eine ARM-Plattform beispielsweise erkennt, dass eine Anwendung wegen eines Ressourcenkonflikts eine hohe Latenz aufweist, kann sie der Anwendung automatisch die erforderlichen Ressourcen zuweisen oder sie auf einen weniger ausgelasteten Server verlagern. Solche automatisierten Aktionen tragen dazu bei, die Latenz zu reduzieren und die Leistung zu verbessern.

Netzwerkleistung überwachen

Tests wie Ping-Befehle sind eine einfache Möglichkeit, um die Netzwerklatenz zu messen, reichen aber nicht aus, um Probleme zu erkennen, geschweige denn, sie zu beheben. Unternehmen können eine Lösung zur Verwaltung der Netzwerkleistung einsetzen. Diese einheitliche Plattform unterstützt die Teams dabei, Probleme mit der Netzwerkleistung zu erkennen, zu beheben und zu vermeiden und so die Latenz zu reduzieren.

Leistungsfähige, stets aktuelle Infrastruktur pflegen

IT-Teams können sicherstellen, dass sie aktuelle Hardware-, Software- und Netzwerkkonfigurationen verwenden und dass die Infrastruktur des Unternehmens den aktuellen Anforderungen gewachsen ist. Die regelmäßige Überprüfung und Wartung des Netzwerks kann ebenfalls dazu beitragen, Leistungsprobleme und Latenzen zu reduzieren.

Seitenelemente und Code optimieren

Entwickler können Maßnahmen ergreifen, damit der Seitenaufbau nicht die Latenzen erhöht, z. B. Videos, Bilder und andere Seiteninhalte so optimieren, dass sie schneller geladen werden, und Codeverkleinerung.

Weiterführende Lösungen
IBM Cloud Pak for Network Automation 

IBM Cloud Pak for Network Automation ist ein Cloud Pak, das die Automatisierung und Orchestrierung von Netzwerkinfrastrukturbetrieben ermöglicht.

Cloud Pak Automation erkunden
Netzwerklösungen

Cloud-Netzwerklösungen von IBM bieten eine leistungsstarke Konnektivität, um Ihre Apps und Ihr Unternehmen zu unterstützen.

Cloud-Netzwerklösungen erkunden
Netzwerk-Support-Services

Konsolidieren Sie die Rechenzentrumsunterstützung mit IBM Technology Lifecycle Services für Cloud-Netzwerke und mehr.

Cloud-Netzwerkdienste
Machen Sie den nächsten Schritt

Stärken Sie Ihr Unternehmen mit modernsten DNS-Management- und Cloud-Netzwerklösungen. Verbessern Sie die Zuverlässigkeit Ihrer Anwendungen und optimieren Sie die Netzwerkleistung mit den führenden Diensten von IBM.

Cloud-Netzwerklösungen erkunden Managed DNS Services entdecken
Fußnoten

1Internet at the Speed of Light“, Yale.edu, 3. Mai 2022.

2Effect of the network on performance“, IBM.com, 3. März 2021