Tras crear los modelos de referencia, las herramientas de UBA supervisan a los usuarios y comparan su comportamiento con estos modelos. Cuando detectan desviaciones que podrían indicar posibles amenazas, alertan al equipo de seguridad.
Los UBA pueden detectar anomalías de diferentes maneras, y muchas herramientas de UBA utilizan una combinación de métodos de detección.
Algunas herramientas de UBA utilizan sistemas basados en reglas en los que los equipos de seguridad definen manualmente las situaciones que deben activar alertas, como los usuarios que intentan acceder a activos fuera de sus niveles de permiso.
Muchas herramientas de UBA también utilizan algoritmos de IA y ML para analizar el comportamiento de los usuarios y detectar anomalías. Con IA y ML, UBA puede detectar desviaciones del comportamiento histórico de un usuario.
Por ejemplo, si un usuario ha iniciado sesión en una aplicación solo durante las horas de trabajo en el pasado y ahora inicia sesión por la noche y los fines de semana, eso podría indicar una cuenta comprometida.
Las herramientas UBA también pueden utilizar IA y ML para comparar a los usuarios con sus pares y detectar anomalías de esa manera.
Por ejemplo, es muy probable que nadie en el departamento de marketing necesite extraer registros de tarjetas de crédito de clientes. Si un usuario de marketing comienza a intentar acceder a esos registros, eso podría indicar un intento de exfiltración de datos.
Además de entrenar algoritmos de IA y ML sobre los comportamientos de los usuarios, las organizaciones pueden utilizar fuentes de inteligencia de amenazas para enseñar a las herramientas UBA a detectar indicadores conocidos de actividad maliciosa.