Die Observability-Ebene erleichtert die Überwachung, Nachverfolgung und Bewertung von KI-Workflows. Sie bietet die Transparenz und die Erkenntnisse, die erforderlich sind, um zu verstehen, wie KI-Modelle in realen Umgebungen funktionieren. Außerdem ermöglicht sie Teams, Probleme umgehend zu identifizieren und zu lösen, den Systemzustand aufrechtzuerhalten und die Leistung im Laufe der Zeit zu verbessern.
Im Fokus der Observability-Ebene stehen Tools und Frameworks zur Erfassung von Metriken, die sich sowohl auf die KI-Modelle als auch auf die Infrastruktur beziehen, auf der sie laufen.
Die Governance-Ebene ist der übergeordnete Rahmen, mit dem sichergestellt wird, dass KI-Systeme verantwortungsvoll, ethisch und im Einklang mit organisatorischen und gesellschaftlichen Standards eingesetzt, genutzt und gewartet werden.
Diese Ebene ist entscheidend für das Risikomanagement, die Förderung von Transparenz und den Aufbau von Vertrauen in KI-Technologien. Es umfasst Richtlinien und Prozesse zur Überwachung des Lebenszyklus von KI-Modellen mit gesetzlichen Vorschriften, ethischen Grundsätzen und Unternehmenszielen.
Eine Hauptfunktion der Governance-Schicht ist die Festlegung von Richtlinien zur Datenerfassung und -nutzung zusammen mit Compliance-Frameworks, um Vorschriften wie die Datenschutz-Grundverordnung (DSGVO), den Health Insurance Portability and Accountability Act (HIPAA) oder KI-spezifische Richtlinien wie das EU AI Act einzuhalten. Diese Frameworks definieren, wie Daten gesammelt, gespeichert und verwendet werden, fördern so Datenschutz und Sicherheit.
Zur Governance gehört auch die Schaffung von Mechanismen für die Nachvollziehbarkeit und Rückverfolgbarkeit, die es Unternehmen ermöglichen, KI-Entscheidungen, Modelländerungen und Datennutzung zu protokollieren und nachzuverfolgen, was für die Haftung und die Behebung von Streitigkeiten oder Fehlern entscheidend ist.
Die Governance-Schicht bearbeitet auch die Themen Fairness, Verzerrung und Erklärbarkeit in KI-Systemen. Dazu gehört die Implementierung von Tools und Techniken, um Verzerrungen in Trainingsdaten oder Modellergebnissen zu erkennen und zu reduzieren, die dazu beitragen, dass KI-Systeme in verschiedenen Bevölkerungsgruppen gleichberechtigt funktionieren.