Was ist LLM-Observability?

Autoren

Joshua Noble

Data Scientist

Shalini Harkar

Lead AI Advocate

LLM Observability definiert

LLM-Observability ist der Prozess der Erfassung von Echtzeitdaten von LLM-Modellen oder Apps über deren Verhaltens-, Leistungs- und Ausgabemerkmale. Da LLMs komplex sind, können wir sie anhand von Mustern beobachten, was sie als Ausgabe erzeugen.1

Eine gute Observability-Lösung besteht aus dem Sammeln relevanter Metriken, Traces und Logs von Anwendungen, Programmierschnittstellen und Workflows, was es Entwicklern ermöglicht, Anwendungen effizient, proaktiv und in großem Maßstab zu überwachen, zu debuggen und zu optimieren. 

Große Sprachmodelle (LLMs) und generative KI (GenAI)-Plattformen wie IBM watsonx.ai® und eine zunehmende Anzahl von Open-Source-Varianten setzt sich branchenübergreifend durch. Aufgrund dieses Anstiegs ist es wichtiger denn je, die Zuverlässigkeit, Sicherheit und Effizienz von Modellen und Anwendungen nach der Einführung aufrechtzuerhalten. In diesem Bereich spielt die LLM-Observability eine wesentliche Rolle.

Die neuesten Tech-News – von Experten bestätigt

Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und darüber hinaus auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Warum ist LLM-Observability wichtig?

  • Überwachen Sie die Qualität und die Ausgaben von LLMs:
    Die kontinuierliche Bewertung der von LLMs erzeugten Ausgaben kann in mehrere Qualitätsdimensionen eingeteilt werden, die für die Nutzer nützlich und anwendbar sind. Diese Dimensionen umfassen Korrektheit, Relevanz, Kohärenz und sachliche Konsistenz mit definierten Bewertungsmaßstäben. Das regelmäßige Überprüfen dieser Leistungsdimensionen hilft, Verzögerungen oder Probleme zu vermeiden, die dazu führen könnten, dass Benutzer das Vertrauen in das Programm verlieren und es schwierig finden, LLMs effizient zu nutzen.

  • Schnelle Ursachenanalyse und Fehlerbehebung:
    Wenn bei einer LLM-Anwendung ein erheblicher Fehler oder ein unerwartetes Verhalten auftritt, kann ein Observability-Tool nützliche Erkenntnisse liefern, um die Ursache (oder die Ursachen) des jeweiligen Problems schnell zu identifizieren. Diese detaillierte Telemetrie ermöglicht es den Stakeholdern in der Regel, die Probleme in vielen Bereichen mit größerer Sicherheit zu isolieren. Zum Beispiel beschädigte Trainingsdaten, schlecht konzipierte Feinabstimmungen, fehlgeschlagene externe API-Aufrufe oder Ausfälle von Drittanbietern im Backend.

  • Optimieren Sie Anwendungen, Benutzerbindung und Systemeffizienz:
    Die LLM-Observability ermöglicht eine Verbesserung der Leistung und der Benutzerbindung durch kontinuierliche Überwachung des gesamten LLM-Stacks. Wichtige Metriken wie Latenz, verwendete Token, Reaktionszeit und Durchsatz werden erfasst, um Engpässe und begrenzende Faktoren zu identifizieren und so eine weitere Leistungsoptimierung und Kostensenkung zu ermöglichen, insbesondere in RAG-Workflows. Die Echtzeitverfolgung von Interaktionen und Benutzerfeedback hilft dabei, herauszufinden, wann minderwertige Ergebnisse erzeugt werden, Probleme zu lösen, sobald sie auftreten, und die Ursachen zu ermitteln. Diese konsistente Anpassung an das Nutzerverhalten ermöglicht es dem LLM, individuelle Antworten zu erstellen, Workflows zu optimieren und die Nachfrage ohne Leistungseinbußen zu skalieren.2, 3
Mixture of Experts | 28. August, Folge 70

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Wichtige Observability-Metriken

LLM-Observability-Metriken lassen sich in drei Hauptdimensionen einteilen.

Eine umfassende Observability großer Sprachmodelle (LLMs) kann nur erfolgen, wenn wir Observability-Metriken verfolgen, die die Systemleistung, den Ressourcenverbrauch und das Modellverhalten verfolgen.4

Metriken zur Systemleistung

  • Latenz: Die Dauer von der Eingabe bis zur Ausgabe, die die Reaktionszeit des Modells darstellt.

  • Durchsatz: Anzahl der Anfragen, die das Modell in einer bestimmten Zeitspanne verarbeitet; ein Maß für die Auslastung des Modells.

  • Fehlerrate: Die Rate der Fehlschläge oder ungültigen Antworten; ein Hinweis auf die Zuverlässigkeit des Modells.

Metriken zur Ressourcen-Nutzung:

  • CPU/GPU-Auslastung: Messung der bei der Inferenz verbrauchten Ressourcen, mit Bezug auf Kosten und Effizienz.

  • Speichernutzung: RAM oder Speicherplatz, der während der Verarbeitung verbraucht wird. Diese Nutzung ist zwar wichtig für Leistung und Skalierbarkeit, aber sie ist zweitrangig gegenüber der Gesamtaufgabe.

  • Token-Nutzung: Verarbeitete Token verfolgen. Dieser Schritt ist besonders wichtig, wenn Token in Modellen mit Kosten verbunden sind.

  • Durchsatzlatenzverhältnis: Der Durchsatz beschreibt die Workload eines Systems im Vergleich zu seiner Reaktionsfähigkeit – ein Gleichgewicht zwischen diesen beiden Komponenten zu finden, ist für die Effizienz entscheidend.

Modell-Verhaltensmetriken:

  • Korrektheit: Überwacht, wie häufig das Modell eine korrekte Antwort liefert.

  • Faktische Korrektheit: Bewertet, ob das Modell „korrekte“ faktische Ausgaben liefert.

  • Nutzerbindung: Quantifiziert die Dauer der Interaktion, das Feedback und die Zufriedenheit, um die Erfahrung abzuschätzen.

  • Antwortqualität: Misst die Kohärenz, Klarheit und Relevanz der Ausgaben.5

Manuelle vs. agentenbasierte autonome Observability 

Die manuelle Überwachung von LLMs ist aufgrund des großen Datenvolumens, der komplexen Systemarchitektur und der Notwendigkeit einer Echtzeitverfolgung schwierig. Die Fülle an Protokollen und Metriken macht es schwierig, Probleme schnell zu erkennen. Darüber hinaus ist die manuelle Beobachtung ressourcenintensiv, fehleranfällig und kann bei wachsenden Systemen nicht effektiv skaliert werden, was zu einer langsameren Problemerkennung und ineffizienten Fehlerbehebung führt.

 Diese Einschränkungen zeigen die Schwierigkeit, die Observability in LLMs manuell aufrechtzuerhalten, und unterstreichen den Bedarf an ausgefeilteren, autonomeren Lösungen für Unternehmensumgebungen.6

Agentenbasierte autonome Fehlerbehebung 

Autonome Fehlerbehebung bezieht sich auf Systeme, die Probleme unabhängig identifizieren, diagnostizieren und beheben können, ohne dass ein menschliches Eingreifen erforderlich ist, indem sie fortschrittliche Überwachungsmethoden einsetzen, die agentenbasierte Systeme nutzen. Die Agenten überwachen die Leistung, identifizieren Anomalien und führen Echtzeit-Diagnosen durch, so dass die Systeme unbeaufsichtigt und ohne menschliches Eingreifen laufen.7

Agentenbasierte autonome Fehlerbehebung hilft bei:

  • Erkennung in Echtzeit: Identifizieren Sie Probleme sofort ohne manuelle Eingaben.

  • Ursachenanalyse: Ermitteln Sie die Ursache von Problemen mit Hilfe von KI-gestützten Erkenntnissen. 

  • Automatisierte Lösung: Wenden Sie vordefinierte Lösungen an, die sofort einsatzbereit sind, um Probleme zu beheben.

  • Kontinuierliche Überwachung: Passen Sie die Daten an und lernen Sie daraus, um die Fehlerbehebung im Laufe der Zeit zu verbessern.

  • Skalierbarkeit: Verwalten Sie komplexe, große Umgebungen effizient, indem Sie die manuelle Arbeit deutlich reduzieren.

  • Vorausschauende Wartung: Potenzielle Probleme werden erkannt, bevor sie auftreten. Dies kann in Phasen höchster Leistung von enormem Wert sein. 

  • Integration mit Observability: Funktioniert mit anderen Observability-Tools für eine schnellere Problemlösung.

Unternehmenslösungen 

IBM® Instana ist auf Skalierbarkeit ausgelegt und bietet Echtzeittransparenz und autonome Fehlerbehebung für die komplexe Observability von heute.

Mit einem dreistufigen Prozess – Erkennung, KI-gestützte Diagnose und autonome Sanierung – bietet Instana eine durchgängige autonome Fehlerbehebung, um sicherzustellen, dass Probleme erkannt und behoben werden, bevor sie sich auf Ihre Leistung auswirken.8

Um mehr über diese Funktion zu erfahren, melden Sie sich für die Warteliste von Instana Agentic KI an.  

Zusammenfassung

Die Skalierung der generativen KI umfasst eine autonome Fehlerbehebung mit intelligenter Instrumentierung, LLM-Überwachung in Echtzeit und effektive Orchestrierung. Die Optimierung des Datensatzes, der Modellausgabe und der LLM-Antwort sowie die robuste Wartung der Modellleistung durch optimierte Pipelines und LLM-Tests in Echtzeit sind entscheidend für eine reibungslose Benutzererfahrung in verschiedenen Anwendungsfällen wie Chatbots. Die Nutzung von Open-Source-LLMs und Workflows für maschinelles Lernen nimmt zu und nutzt die Vorteile von Einbettungstechniken, indem sie LLM-Aufrufe mit Hilfe einer Reihe von Tools überwacht. Tools wie OpenTelemetry und andere, die ausgefeilte LLM-Observability-Tools in integrierte Observability-Plattformen und Dashboards einbinden, sind unerlässlich für den Aufbau skalierbarer, stabiler KI-Systeme, die optimale Leistung bieten.9, 10

Weiterführende Lösungen
Automatisierte Full Stack Observability

Ermitteln und beheben Sie die Ursache des Problems rasch. Echtzeit-Daten mit hoher Genauigkeit bieten vollständige Transparenz dynamischer Anwendungs- und Infrastrukturumgebungen.

Mehr erfahren über Full Stack Observability
AIOps Consulting

Optimieren Sie die IT-Automatisierung und den IT-Betrieb mit generativer KI und richten Sie jeden Aspekt Ihrer IT-Infrastruktur an den geschäftlichen Prioritäten aus.

Mehr erfahren über AIOps Consulting
IBM SevOne Network Performance Management

IBM SevOne Network Performance Management ist eine Überwachungs- und Analysesoftware, die Echtzeittransparenz und Erkenntnisse für komplexe Netzwerke bietet.

Netzwerkleistung überwachen
Machen Sie den nächsten Schritt

Erfahren Sie, wie KI für den IT-Betrieb die Erkenntnisse liefert, die Sie benötigen, um die Leistung Ihres Unternehmens entscheidend zu verbessern.

AIOps-Lösungen erkunden Buchen Sie eine Live-Demo
Fußnoten:

1 Kumar, S., & Singh, R. (2024). Don’t blame the user: Toward means for usable and practical authentication. Communications of the ACM, 67(4), 78–85. https://dl.acm.org/doi/10.1145/3706599.3719914

2 Datadog. (n.d.). What Is LLM Observability & Monitoring?. Abgerufen am 19. Mai 2025 von https://www.datadoghq.com/knowledge center/llm-observability/.

3 LLM-Observability, GitHub. Abgerufen am 19. Mai 2025 von https://github.com/DataDog/llm-observability, Datadog. (n.d.).

4 Dong, L., Lu, Q. & Zhu, L. (2024). AgentOps: Enabling Observability of LLM Agents. arXiv. https://arxiv.org/abs/2411.05285.

5 LangChain. (n.d.). Datadog LLM Observability - LangChain, Langsmith .js. Abgerufen am 19. Mai 2025 von https://js.langchain.com/docs/integrations/callbacks/datadog_tracer/.

6 Optimizing LLM Accuracy, abgerufen am 19. Mai 2025 von https://platform.openai.com/docs/guides/optimizing-llm-accuracy.

7 IBM Instana Observability. Abgerufen am 19. Mai 2025 von https://www.ibm.com/de-de/products/instana.

8 Monitoring AI Agents. IBM Documentation. Abgerufen am 19. Mai 2025 von https://www.ibm.com/docs/en/instana-observability/1.0.290?topic=applications-monitoring-ai-agents. 

9 Zhou, Y., Yang, Y. & Zhu, Q. (2023). LLMGuard: Preventing Prompt Injection Attacks on LLMs via Runtime Detection. arXiv preprint arXiv:2307.15043. https://arxiv.org/abs/2307.15043.

10 Vesely, K., & Lewis, M. (2024). Real-Time Monitoring and Diagnostics of Machine Learning Pipelines. Journal of Systems and Software, 185, 111136.