Die Genauigkeit eines KI-Modells kann sich innerhalb von Tagen nach der Bereitstellung verschlechtern, da sich die Produktionsdaten von den Schulungsdaten des Modells unterscheiden. Dies kann zu falschen Vorhersagen und erheblichen Risiken führen.
Zum Schutz vor Modellabweichungen und Verzerrungen sollten Unternehmen einen KI-Drift-Detektor und Überwachungstools einsetzen, die automatisch erkennen, wenn die Genauigkeit eines Modells unter einen voreingestellten Schwellenwert sinkt (oder abdriftet).
Ein Programm zur Erkennung von Modelldrift sollte auch nachverfolgen, welche Transaktionen die Abweichung verursacht haben, sodass diese neu gekennzeichnet und zum erneuten Trainieren des Modells verwendet werden können, um seine Vorhersagekraft während der Laufzeit wiederherzustellen.
Bei der statistischen Drifterkennung werden statistische Metriken zum Vergleich und zur Analyse von Datenproben verwendet. Diese Implementierung ist oft einfacher, weil die meisten Metriken bereits im Unternehmen verwendet werden. Die modellbasierte Drifterkennung misst die Ähnlichkeit zwischen einem Punkt oder einer Gruppe von Punkten und dem Referenzwert.