Was ist Telemetrie?

Luftaufnahme eines futuristischen Gebäudes

Was ist Telemetrie?

Telemetrie ist die automatisierte Erfassung und Übertragung von Daten und Messungen aus verteilten oder entfernten Quellen an ein zentrales System zur Überwachung, Analyse und Ressourcenoptimierung.

Die Telemetrie spielt in verschiedenen Branchen wie dem Gesundheitswesen, der Luft- und Raumfahrt, der Automobilbranche und der Informationstechnologie (IT) eine wichtige Rolle und bietet Unternehmen wertvolle Einblicke in die Systemleistung, das Benutzerverhalten, die Sicherheit und die betriebliche EffizienzIn Branchen, die auf physische Güter angewiesen sind, wie z. B. die Landwirtschaft, die Versorgungswirtschaft und das Transportwesen, nutzen Unternehmen die Telemetrie, um Messungen wie Temperatur, Luftdruck, Bewegung und Licht zu erfassen. Im Gesundheitswesen können Telemetriesysteme die Herzfrequenz, den Blutdruck und den Sauerstoffgehalt überwachen.

In beiden Fällen sammeln physische Instrumente und Sensoren Daten aus der realen Welt und senden sie an ein zentrales Repository. Die Daten werden häufig über ein spezielles Kommunikationsprotokoll wie Modbus, PROFINET, OPC Unified Architecture oder EtherNet/IP zur weiteren Analyse übertragen.

Physikalische Sensoren sind jedoch nicht dafür ausgelegt, digitale Leistungsindikatoren wie Fehlerraten, Speichernutzung, Reaktionszeiten, Betriebszeit und Latenz zu erfassen. Stattdessen verlassen sich IT-Teams auf die Instrumentierung von Geräten, oft durch softwarebasierte Agenten – digitale Sensoren, die so programmiert sind, dass sie relevante Systemdaten autonom überwachen und sammeln. Diese Daten werden häufig in Form von Metriken, Ereignissen, Protokollen und Traces (MELT) strukturiert, die jeweils eine andere Sicht auf das Systemverhalten, die betrieblichen Workflows und die Leistungszeit ermöglichen.

Die Grenzen zwischen physischen und digitalen Telemetriesystemen beginnen zu verschwimmen, vor allem da Unternehmen zunehmend Strategien zur digitalen Transformation verfolgen, die darauf abzielen, digitale Technologie in alle Bereiche eines Unternehmens zu integrieren.

Beispielsweise könnte eine traditionelle physische Branche wie die Fertigungsindustrie Sensoren einsetzen, um den Energieverbrauch, die Qualitätskontrolle und die Umgebungsbedingungen zu erfassen. Gleichzeitig könnte es sich auf Software-Agenten für die erweiterte Asset-Verfolgung, die vorbeugende Wartung und die Überwachung des Produktionsflusses verlassen. Aus diesem Grund konzentriert sich dieser Artikel in erster Linie auf die IT-Telemetrie und ihre wachsende Bedeutung in modernen Unternehmensumgebungen.

Im Kern umfasst die IT-Telemetrie fünf wichtige Schritte:

  1. Sammeln von Metriken, Ereignissen, Protokollen und Traces aus verteilten Quellen mit Sensoren oder Softwareagenten

  2. Übertragung dieser Daten an einen zentralen Speicher oder Router über WLAN, Satellit, Funk oder ein anderes Kommunikationsmedium

  3. Verarbeitung und Organisation der eingehenden Daten, damit diese leicht abgefragt werden können

  4. Verwaltung der Daten mit einer Speicherlösung wie einer Time Series Database, einem Data Warehouse oder einem Data Lake

  5. Analyse, Interpretation und Visualisierung der Daten, um fundiertere Geschäftsentscheidungen zu treffen, oft mit Hilfe einer Observability-Plattform

Effektive Telemetriestrategien helfen Unternehmen dabei, eine vollständige Beobachtbarkeit zu erreichen, d. h. die Fähigkeit, den internen Zustand eines Technologie-Stacks auf der Grundlage seiner externen Ergebnisse von Anfang bis Ende zu verstehen.

Telemetrie ist auch ein wichtiger Bestandteil von Internet der Dinge (IoT), einem Framework, das Geräte mit fortschrittlichen Sensoren, Software und Netzwerkkonnektivität ausstattet, sodass sie im gesamten System kommunizieren und Daten austauschen können.

Die neuesten Tech-News – von Experten bestätigt

Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben sich angemeldet.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Wie erfassen und übertragen Telemetriesysteme Daten?

Telemetriesysteme variieren je nach Branche und Systemkomplexität. Traditionelle Plattformen verwenden Aufzeichnungsgeräte, historisch als Telemeter bezeichnet, um Daten an oder in der Nähe eines Equipments zu erfassen. Diese Informationen werden in einem als Signalaufbereitung bezeichneten Prozess verarbeitet, geändert und manchmal von analog in digital umgewandelt.

Anschließend kombiniert ein Multiplexer mehrere Datenströme zu einem zusammengesetzten Signal, wodurch die Daten effizienter übertragen werden. Dieses kombinierte Signal wird dann per Funk, Satellit oder einem anderen Kommunikationsmedium an eine entfernte Empfangsstation übertragen. Schließlich analysiert ein Demultiplexer die Signale und zerlegt sie in verteilte Stränge, um sie für die Analyse vorzubereiten.

Telemetrie funktioniert in modernen IT-Umgebungen anders. Anstatt sich auf physische Sensoren zu verlassen, nutzen IT-orientierte Systeme Software-Agenten – schlanke Programme, die zusammen mit Diensten und Anwendungen ausgeführt werden, um relevante Metriken zu erfassen. In Kubernetes-Umgebungen arbeiten diese Agenten oft in einem separaten Container innerhalb desselben Clusters wie die Dienste, die sie überwachen. Andere Konfigurationen verwenden möglicherweise Software Development Kits (SDKs), um Agenten in die Anwendungen selbst einzubetten – oder verwenden benutzerdefinierte APIs, um die Datenübertragung zu erleichtern.

Nach der Erfassung werden die Daten durch eine Telemetrie-Pipeline geleitet, die Daten standardisieren, Rauschen herausfiltern, Metadaten (z. B. Umgebungs- und Geolokalisierungs-Tags) hinzufügen und vertrauliche Informationen maskieren kann, um die Compliance zu gewährleisten. Diese verfeinerten Daten werden dann mit einem Format wie JSON oder OpenTelemetry Protocol (OTLP) standardisiert.

Als Nächstes wird es intelligent über gRPC, HTTP oder ein anderes Transportprotokoll an ein oder mehrere Backends (die serverseitigen Komponenten eines Softwaresystems – Server, Datenbanken und Anwendungslogik zum Beispiel) weitergeleitet. Das Backend ist dafür verantwortlich, diese Daten zu speichern, zu analysieren und zu interpretieren und sie in Form von Dashboards, Alerts, Empfehlungen und mehr zu präsentieren.

Ein einziges Telemetriesystem könnte zur Verwaltung des gesamten Workflows, von der Erfassung bis zur Analyse, verwendet werden. Manchmal, insbesondere in modernen Multicloud- und Hybrid-Umgebungen, verwenden Unternehmen jedoch mehrere spezialisierte Telemetriesysteme, um verschiedene Teile der Observability-Pipeline zu verwalten.

IBM DevOps

Was ist DevOps?

Andrea Crawford erklärt, was DevOps ist, welchen Wert DevOps hat und wie DevOps-Praktiken und -Tools Ihnen dabei helfen, Ihre Anwendungen durch die gesamte Delivery Pipeline der Softwareentwicklung von der Idee bis zur Produktion zu bringen. Das von führenden IBM Experten geleitete Programm soll Führungskräften das nötige Wissen vermitteln, um Prioritäten für KI-Investitionen zu setzen, die zu mehr Wachstum führen.

Was sind die wichtigsten Arten von Telemetriedaten?

In der IT sind die gebräuchlichsten Arten der Telemetrie Metriken, Ereignisse, Protokolle und Traces, die oft unter dem Begriff „MELT“-Daten (Metrics, Events, Logs, Traces) zusammengefasst werden. Unternehmen können Observability-Plattformen zur Kombination und Analyse dieser Metriken nutzen, um sich ein vollständiges Bild von der Sicherheit der Plattform, dem Benutzerverhalten, der Systemeffizienz und mehr zu machen.

Metriken

Metriken sind numerische Messungen, die den Zustand oder die Leistung eines Systems anzeigen. Beispiele hierfür sind Anforderungsraten, Netzwerkdurchsatz, Antwortzeiten von Anwendungen, Benutzerkonvertierungsraten und CPU-Auslastung.

Events

Ereignisse sind bestimmte Vorgänge, die im System stattfinden. Sie enthalten oft Zeitstempel, die angeben, wann ein Ereignis begann und wann es endete. Beispiele hierfür sind Alarmmeldungen, Anmeldeversuche von Benutzern, Serviceunterbrechungen, Zahlungsausfälle und Konfigurationsänderungen.

Logs

Protokolle bieten eine kontinuierliche Aufzeichnung und chronologische Abfolge des Systemverhaltens, im Gegensatz zu Ereignissen, die nur bestimmte Vorfälle kennzeichnen. Beispiele hierfür sind Neustarts, Datenbankabfragen, Dateizugriffsverläufe und Schritte zur Codeausführung. Protokolle werden häufig zur Fehlerbehebung und Debugging von Fehlern verwendet und helfen IT-Teams, den genauen Zeitpunkt eines Fehlers zu bestimmen.

Traces

Ablaufverfolgungen spiegeln den End-to-End-Fluss einer bestimmten Benutzeranforderung oder Transaktion über eine verteilte oder Microservice-Umgebung wider, mit Zeitstempeln für jeden Schritt. Beispiele hierfür sind API- und HTTP-Aufrufe, Datenbankabfragen und  E-Commerce-Checkouts. Traces können Engpässe aufdecken und Erkenntnisse zur gesamten Benutzererfahrung liefern.

Andere Telemetrietypen

MELT zeigt zwar die Bandbreite der Telemetriedaten, die Unternehmen zur Verfügung stehen, aber es gibt weitere Datentypen, die nicht in dieses Framework fallen, aber dennoch eine kritische Rolle für die Observability spielen. Die Grenzen zwischen den Telemetrietypen sind nicht immer eindeutig und es kann zu Überschneidungen kommen. So kann beispielsweise Latenz sowohl als Metrik als auch als Netzwerktelemetriedatenpunkt betrachtet werden. Andere Arten von Telemetriedaten sind: 

  • Bei derStandorttelemetrie wird mit Sensoren oder GPS-Empfängern der geografische Standort einer Person oder eines Objekts verfolgt. Anwendungen umfassen Transportflottenmanagement, Notfalldienste, die Verfolgung von Wildtieren und die Sicherheit von Arbeitnehmern.

  • Netzwerktelemetrie bietet Erkenntnisse in Echtzeit in den Netzwerkverkehr, die Sicherheit und die Leistung des Netzwerks, indem sie die Bandbreitennutzung, Paketverlustraten, API-Leistung und SNMP-Daten (Simple Network Management Protocol) (Informationen zu Modems, Routern, Servern und anderen angeschlossenen Geräten) verfolgen.

  • Die Sicherheitstelemetrie identifiziert verdächtige Verhaltensweisen und Schwachstellen, indem sie Authentifizierungsprotokolle, Firewallprotokolle, DNS-Abfragen, Warnungen zur Erkennung von Angriffen von außen sowie EDR-Daten (Endpoint Detection and Response) untersucht.

  • Benutzer-Telemetrie verfolgt Anwendungsnutzungsmuster, Fehlerprotokolle, Sitzungsdauern, Suchabfragen und andere Arten von Benutzerverhalten. Diese Daten werden verwendet, um Anwendungen und Services zu optimieren, Kundentrends zu verstehen und ein sicheres Netzwerk aufrechtzuerhalten.

  • Die Profiling-Telemetrie zeigt, wie Software und Anwendungen CPU, Speicher und andere Computerressourcen im Laufe der Zeit nutzen. Sie bietet detaillierte Leistungsdaten, die Entwicklern bei der Suche nach der Ursache für eine Verlangsamung helfen und zeigen, welche Teile der Codebasis am stärksten genutzt werden.

  • Cloud-Telemetrie erfasst Leistungs-, Kostenverfolgungs- und Nutzungsdaten von Cloud-Services. Zu diesen Daten können Speicheraktivitäten, Konfigurationsänderungen, Identitäts- und Zugriffsereignisse sowie Routing-Entscheidungen gehören.

  • Die KI-Telemetrie kann die Modellleistung sowohl beim Training als auch in der Produktion verfolgen. Zu den wichtigsten Metriken gehören die Modelldrift (Verfolgung, wie ein Modell des maschinellen Lernens im Laufe der Zeit an Kohärenz und Genauigkeit verliert), Konfidenzwerte (Bestimmung, wie sicher das Modell in seinen Vorhersagen ist) und die Inferenzlatenz (die Zeit, die das Modell zur Beantwortung einer Anfrage benötigt). Diese Metriken können Entwicklern bei der Verbesserung der Modellzuverlässigkeit, Fairness und Leistung helfen.

Telemetrie vs. Überwachung vs. Observability

Telemetrie ist der Prozess der Erfassung und Übertragung verschiedener Arten von Daten von verteilten Systemen und Komponenten. Sie ist die Grundlage für die Sichtbarkeitsfähigkeiten eines Unternehmens und bietet Erkenntnisse über das Verhalten und die Leistung der einzelnen Komponenten. Unternehmen verlassen sich bei der Steuerung ihrer Überwachungs- und Observability-Systeme letztlich auf Telemetrie.

Überwachung bezieht sich darauf, wie Unternehmen die gesammelten Telemetriedaten nutzen. Ein Telemetrie-Überwachungssystem kann beispielsweise Dashboards verwenden, um DevOps-Teams bei der Visualisierung der Systemleistung zu unterstützen. Automatisierungen von Warnmeldungen können bei jedem bemerkenswerten Ereignis, wie z. B. einem Netzwerkausfall oder Data Breach, Benachrichtigungen ausgeben.

Observability umfasst die Interpretation von Betriebsdaten und das Verständnis, wie verschiedene Datenströme mit dem Zustand und der Leistung des Systems korrelieren. Observability analysiert nicht nur aktuelle Daten, sondern ermittelt auch größere Trends und nutzt diese als Grundlage für die Entscheidungsfindung und die Optimierung der Ressourcennutzung im Unternehmen. Moderne Observability-Plattformen enthalten häufig integrierte Telemetrie- und Überwachungsfunktionen. Darüber hinaus spielt Observability eine wichtige Rolle bei der Unterstützung aufkommender Technologien, darunter Plattformen für agentische KI und generative KI.

Gängige IT-Telemetrielösungen

Ein Open-Source-Framework namens OpenTelemetry (OTel) gehört zu den beliebtesten Telemetrieplattformen und wird für seine Flexibilität (sein modulares Design fördert die Anpassung), seine Erschwinglichkeit (seine Kernkomponenten sind kostenlos erhältlich) und seine Kompatibilität (es ist mit mehreren Anbietern und Programmierungssprachen kompatibel) geschätzt. OTel übernimmt keine Telemetrie Speicher oder -visualisierung. Stattdessen bietet es einen standardisierten Satz von SDKs, APIs und anderen Tools, die auf die Datenerfassung und -übertragung ausgerichtet sind.

Fast die Hälfte der IT-Organisationen nutzt OTel, weitere 25 % planen, das Framework in Zukunft zu implementieren. Dies geht aus einem Bericht des KI-Unternehmens Elastic aus dem Jahr 2025 hervor. Organisationen mit ausgereiften Observability-Systemen nutzen OTel mit größerer Wahrscheinlichkeit als Unternehmen mit weniger entwickelten Observability-Workflows. IBM® Instana, Datadog, Grafana, New Relic, Dynatrace und Splunk bieten alle eine solide OTel-Unterstützung.

Ein alternatives Open-Source-Framework namens Prometheus weist einige Ähnlichkeiten mit OTel auf. Die Cloud Native Computing Foundation (CNCF), selbst eine Tochtergesellschaft der gemeinnützigen Linux Foundation, hostet beide Lösungen. Im Gegensatz zu OTel verfügt Prometheus über einige Datenspeicher- und Datenvisualisierungsfunktionen. Allerdings ist der Anwendungsbereich etwas eingeschränkter: Während OTel verschiedene Arten von Telemetriedaten sammeln kann, arbeitet Prometheus ausschließlich mit Metriken.

Was ist Telemetrienormalisierung?

Bei der Telemetrie-Normalisierung werden Metriken in ein standardisiertes Format konvertiert, damit Analysetools sie speichern, lesen und interpretieren können. Hierbei gibt es zwei Hauptansätze:

Schema-on-Write

Bei diesem Datenverarbeitungsansatz müssen alle Daten einem vordefinierten Format entsprechen, bevor sie gespeichert und abgerufen werden können. Schema-on-Write ist zwar äußerst zuverlässig, kann aber in modernen IT-Architekturen, die mehrere Systeme mit jeweils unterschiedlichen Formaten und Ablageprozessen umfassen, schwer zu implementieren sein.

Schema-on-Write wird häufig in zentralisierten Datenrepositorien verwendet, die als Data Warehouse bezeichnet werden. Diese Speicherlösungen können riesige Mengen an Telemetriedaten verwalten, aber nur, wenn diese Daten in einem vordefinierten Format strukturiert und organisiert sind. Data Warehouses können teuer sein, um zu skalieren und zu warten, sind aber ideal für Business Intelligence, Analyse und andere Workflows, bei denen Konsistenz und Zuverlässigkeit oberste Priorität haben.

Schema-on-Read

Bei diesem Ansatz werden die Daten in ihrem ursprünglichen Format erfasst und erst konvertiert, wenn ein Benutzer sie abruft. Schema-on-Read ist zwar operativ komplexer, kann aber Daten in mehreren Formaten verarbeiten und ist damit flexibler als Schema-on-Write.

Schema-on-Read ist in Data Lakes üblich, die wie Data Warehouses sind, in denen aber sowohl halbstrukturierte als auch unstrukturierte Daten neben strukturierten Daten gespeichert und verwaltet werden können. Data Lakes werden aufgrund ihrer Kosteneffizienz und Agilität geschätzt, was sie besonders ideal für Analyse-Tools auf Basis von maschinellem Lernen macht. Aber ohne solide Governance können sie schwierig zu verwalten sein, was zu unbestätigten oder inkonsistenten Daten führt.

Data Lakehouse

Eine aufstrebende Alternative namens Data Lakehouse zielt darauf ab, die besten Elemente von Data Lakes und Data Warehouses zu kombinieren. Das Framework unterstützt Schema-on-Read für unstrukturierte Daten und ermöglicht gleichzeitig Schema-on-Write für strukturierte Daten. Dieser hybride Ansatz hilft Unternehmen, Konsistenz und Genauigkeit zu gewährleisten und gleichzeitig von der Flexibilität und Agilität von Data Lakes zu profitieren.

Herausforderungen bei der Telemetrie

Es kann schwierig sein, Telemetriedaten zu erfassen, zu verwalten und zu speichern, insbesondere in modernen hybriden und Multicloud-Umgebungen. Zu den häufigsten Herausforderungen gehören:

Kompatibilität

Geräte und Dienste verwenden möglicherweise unterschiedliche Formate, Protokolle und Modelle zur Aufzeichnung von Telemetriedaten, was ihre Fähigkeit zur Kommunikation mit dem zentralen Repository einschränkt. Beispielsweise kann ein entferntes medizinisches Gerät ein proprietäres Protokoll zur Messung der Vitalfunktionen eines Patienten verwenden, während das elektronische Gesundheitssystem, mit dem es kommuniziert, ein Standardprotokoll verwendet. Aufgrund dieser Inkompatibilität muss ein DevOps-Team möglicherweise eine benutzerdefinierte Middleware erstellen, um die Verbindung zu ermöglichen.

Inkompatibilitäten können es Unternehmen auch erschweren, den Überblick über die einzelnen Architekturschichten zu behalten, was zu Datensilos, Innovationshemmnissen und Lücken in der Kundenerfahrung führt. Unternehmen können sich dieser Herausforderung stellen, indem sie einheitliche Datenformate einführen, strenge Leitplanken implementieren, Routineprüfungen durchführen und die Synchronisierung und Versionskontrolle zwischen den Komponenten durchsetzen.

Speicher

Redundante und unübersichtliche Daten können zu explodierenden Speicherkosten oder fehlerhaften Analysen aufgrund übermäßigen Rauschens führen. Eine starke Governance kann dazu beitragen, diese Risiken zu mindern.

So können DevOps-Teams beispielsweise Richtlinien zur Datenaufbewahrung implementieren, bei denen Daten nach einem bestimmten Zeitraum automatisch gelöscht werden. Sampling (Aufbewahrung einer repräsentativen Stichprobe aus einem größeren Datensatz), Aggregation (Berechnung des Durchschnitts eines bestimmten Datensatzes) und Tiered Storage (Verschiebung älterer Daten in langsamere, kostengünstigere Speicherlösungen) können ebenfalls die Speicherbelastung und Kosten reduzieren.

Konformität

Unternehmen, insbesondere Unternehmen aus den Bereichen Gesundheitswesen, Rechtsberatung und Personalwesen, in denen personenbezogene Daten häufig gespeichert und ausgetauscht werden, unterliegen strengen Vorschriften in Bezug auf Datenspeicherung, Datenschutz und Souveränität. Die Einhaltung von Vorschriften kann aufgrund der enormen Menge und des Umfangs von Telemetriedaten, die moderne DevOps-Teams sammeln und analysieren müssen, eine Herausforderung darstellen.

Um dieser Herausforderung zu begegnen, können Unternehmen starke Verschlüsselungspraktiken und Token-Kontrollen implementieren, die sensible Daten vor Sicherheitsverletzungen und versehentlicher Offenlegung schützen. Audits können Unternehmen dabei helfen, Telemetrie-Pipelines zu überprüfen und Schwachstellen in der Pipeline frühzeitig zu erkennen. Ebenso können Filtersysteme nicht konforme Daten identifizieren und entfernen, bevor sie die Benutzer erreichen. Und schließlich können Unternehmen die Einhaltung von Vorschriften durch starke Governance-Frameworks sicherstellen, die die Richtlinien zur Datenaufbewahrung und -speicherung wirksam durchsetzen.

Inkohärenz der Daten

Die von Telemetriesystemen generierte Datenmenge kann Unternehmen überfordern, aussagekräftige Trends verschleiern und den Einblick in die Systemsicherheit und -effizienz trüben. Gleichzeitig können die Alarmermüdung die DevOps-Teams von der Erledigung von Aufgaben mit hoher Priorität ablenken und die Rechenressourcen unnötig belasten. Als Reaktion darauf können Unternehmen die Beantwortung von Warnmeldungen automatisieren, redundante Daten am Rande des Systems herausfiltern, strenge Kennzeichnungs- und Namenskonventionen einführen und Ressourcenquoten und -limits durchsetzen.

Telemetrie Vorteile

Mithilfe der Telemetrie können Unternehmen Daten in umsetzbare Erkenntnisse verwandeln, die zur Verbesserung von Leistung, Workflow-Effizienz, Budgetierung, Customer Experience und vielem mehr genutzt werden können.

betrieblichen Effizienz

Telemetriedaten helfen DevOps-Teams festzustellen, welche Komponenten und Systeme gut funktionieren und welche aktualisiert, neu konfiguriert oder ersetzt werden müssen. Es unterstützt auch die vorausschauende Wartung, wenn Teams historische Trends und Leistungsdaten in Echtzeit analysieren, um Equipment proaktiv zu warten und entscheidende Ausfälle zu verhindern. Telemetriesysteme sortieren, organisieren und entfernen außerdem veraltete oder irrelevante Daten effizient und reduzieren so die betriebliche Verschwendung.

Im Gegensatz zur manuellen Datenanalyse werden Telemetriedaten normalerweise automatisch und in Echtzeit erfasst. Dieser Prozess trägt dazu bei, dass Unternehmen Probleme schnell beheben können, bevor sie zu Ausfallzeiten oder kostspieligen Fehlern führen. Mit Telemetriesystemen können Unternehmen auch verfolgen, wie sich Aktualisierungen und Innovationen auf das System auswirken würden, bevor sie in großem Umfang eingeführt werden.

Verbesserte Sicherheit

Telemetriesysteme bieten Echtzeiteinblicke in das Verhalten von Benutzern, Anwendungen und Systemen. Die kontinuierliche Überwachung hilft dabei, eine Referenzversion für die Leistung zu erstellen und erleichtert die Erkennung von Anomalien wie ungewöhnlichem Netzwerkverkehr, wiederholt fehlgeschlagenen Anmeldeversuchen, unerwarteten Installationen und anderen verdächtigen Aktivitäten. Telemetrie kann auch Schatten-IT (nicht autorisierte Komponenten, die außerhalb der zentralen Verwaltung agieren) aufdecken und so dazu beitragen, potenzielle Eintrittspunkte für Angreifer zu eliminieren.

Robuste Verschlüsselungsrichtlinien können Daten in der gesamten Telemetrie-Pipeline schützen, während die Durchsetzung von Aufbewahrungsfristen dazu beiträgt, dass private Daten nur bei Bedarf aufbewahrt werden. Rollenbasierte Zugriffskontrollen ermöglichen den Zugriff auf private Daten. Prüfpfade, während Protokolle einen detaillierten Überblick über die letzten Systemaktionen geben und so genauere und effizientere Sicherheitsuntersuchungen ermöglichen.

Skalierbarkeit

Die Telemetrie gibt den Teams einen tieferen Einblick in die Systemnutzung im Laufe der Zeit und ermöglicht ihnen eine dynamische Skalierung der Ressourcen, um den sich ändernden Anforderungen der Arbeitslast gerecht zu werden. Die Teams können diese Erkenntnisse nutzen, um die Ressourcennutzung zu optimieren und die Kosten zu kontrollieren, während sie gleichzeitig eine stabile, sichere Umgebung für die Kunden aufrechterhalten.

Intelligentere Entscheidungsfindung

Telemetrie-Plattformen helfen Teams dabei, Daten aus dem gesamten Unternehmen zu synthetisieren, um fundiertere, datengesteuerte Geschäftsentscheidungen zu treffen. Observability-Plattformen stützen sich auf Telemetriedaten, um den Systemzustand, die Customer Journeys, das Engagement der Benutzer und andere wichtige Leistungsindikatoren zu analysieren. Entscheidend ist, dass mittels Telemetrie Daten aus verteilten Anwendungen und Systemen erfasst und integriert werden. So erhalten Unternehmen einen ganzheitlichen Überblick darüber, wie sich Geschäftsentscheidungen auf die gesamte Umgebung und nicht nur auf einzelne Komponenten auswirken.

Nick Gallagher

Staff Writer, Automation & ITOps

IBM Think

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

Weiterführende Lösungen
IBM DevOps Accelerate

Automatisieren Sie die Software-Bereitstellung für jede Anwendung On-Premises, in der Cloud oder auf dem Mainframe.

DevOps Accelerate erkunden
DevOps-Lösungen

Verwenden Sie DevOps-Software und -Tools, um cloudnative Anwendungen für mehrere Geräte und Umgebungen zu erstellen, bereitzustellen und zu verwalten.

DevOps-Lösungen erkunden
Cloud-Beratungsleistungen 

Schalten Sie mit IBM Cloud Consulting Services neue Funktionen frei und steigern Sie die geschäftliche Agilität. Entdecken Sie, wie Sie mit Hybrid-Cloud-Strategien und Expertenpartnerschaften gemeinsam Lösungen entwickeln, die digitale Transformation beschleunigen und die Leistung optimieren können.

Cloud-Services
Machen Sie den nächsten Schritt

Erschließen Sie das Potenzial von DevOps, um sichere cloudnative Anwendungen mit kontinuierlicher Integration und Bereitstellung zu entwickeln, zu testen und bereitzustellen.

DevOps-Lösungen erkunden DevOps in Aktion entdecken