Luego de crear modelos de referencia, las herramientas de UBA monitorean a los usuarios y comparan su comportamiento con estos modelos. Cuando detectan desviaciones que podrían indicar amenazas potenciales, alertan al equipo de seguridad.
Los UBA pueden detectar anomalías de diferentes maneras, y muchas herramientas de UBA emplean una combinación de métodos de detección.
Algunas herramientas de UBA emplean sistemas basados en reglas en los que los equipos de seguridad definen manualmente las situaciones que deberían activar alertas, como los usuarios que intentan acceder a activos fuera de sus niveles de licencia.
Muchas herramientas de UBA también emplean algoritmos de IA y ML para analizar el comportamiento de los usuarios y detectar anomalías. Con IA y ML, UBA puede detectar desviaciones del comportamiento histórico de un usuario.
Por ejemplo, si un usuario inició sesión en una aplicación solo durante el horario laboral en el pasado y ahora lo hace por las noches y los fines de semana, eso podría indicar una cuenta comprometida.
Las herramientas de UBA también pueden usar IA y ML para comparar a los usuarios con sus pares y detectar anomalías de esa manera.
Por ejemplo, es muy probable que nadie en el departamento de marketing necesite extraer los registros de las tarjetas de crédito de los clientes. Si un usuario de marketing comienza a intentar acceder a esos registros, eso podría indicar un intento de exfiltración de datos.
Además de entrenar algoritmos de IA y ML sobre los comportamientos de los usuarios, las organizaciones pueden usar fuentes de inteligencia de amenazas para enseñar a las herramientas de UBA a detectar indicadores conocidos de actividad maliciosa.