Nach der Erstellung von Basismodellen überwachen UBA-Tools die Benutzer und vergleichen ihr Verhalten mit diesen Modellen. Wenn sie Abweichungen entdecken, die auf potenzielle Bedrohungen hinweisen könnten, alarmieren sie das Sicherheitsteam.
UBAs können Anomalien auf verschiedene Weise erkennen, und viele UBA-Tools verwenden eine Kombination aus Erkennungsmethoden.
Einige UBA-Tools nutzen regelbasierte Systeme, bei denen Sicherheitsteams manuell Situationen definieren, die einen Alarm auslösen sollen, z. B. wenn Benutzer versuchen, außerhalb ihrer Berechtigungsstufen auf Assets zuzugreifen.
Viele UBA-Tools nutzen zudem KI- und ML-Algorithmen, um das Benutzerverhalten zu analysieren und Anomalien zu erkennen. Mit KI und ML kann UBA Abweichungen vom bisherigen Verhalten eines Benutzers erkennen.
Wenn sich ein Benutzer beispielsweise bisher nur während der Arbeitszeit bei einer App angemeldet hat und sich nun nachts und am Wochenende anmeldet, könnte dies auf ein kompromittiertes Konto hindeuten.
KI und ML kann für UBA-Tools auch nützlich sein, um Benutzer mit anderen zu vergleichen und auf diese Weise Anomalien zu erkennen.
Zum Beispiel besteht eine gute Chance, dass niemand in der Marketingabteilung die Kreditkartendaten der Kunden abrufen muss. Wenn ein Marketing-Benutzer versucht, auf diese Daten zuzugreifen, kann dies auf einen Versuch der Datenexfiltration hindeuten.
Zusätzlich zum Training von KI- und ML-Algorithmen zum Nutzerverhalten können Unternehmen Threat-Intelligence Feeds verwenden, um UBA-Tools beizubringen, bekannte Indikatoren für bösartige Aktivitäten zu erkennen.