Los agentes son sistemas de IA diseñados para funcionar de forma autónoma mediante la planificación, la toma de decisiones y la llamada a herramientas externas. Es crítico protegerse tanto de los ciberataques externos como de las acciones no intencionadas de los agentes. Dado que la IA agéntica es un campo en rápido desarrollo, el panorama de las amenazas evoluciona en tiempo real junto con la tecnología.
Una característica definitoria de los agentes de IA es su capacidad para realizar llamadas a herramientas, en las que se conectan a una API, base de datos, sitio web u otra herramienta y la utilizan cuando es necesario. La llamada a herramientas suele orquestarse a través de marcos de trabajo de agentes de IA y API.
En teoría, los agentes utilizan herramientas para aumentar sus propias capacidades en la planificación y realización de tareas complejas. Por ejemplo, un agente de servicio de atención al cliente podría interactuar con un cliente y luego conectarse a una base de datos interna para acceder al historial de compras de ese cliente.
Los sistemas multiagente van un paso más allá al combinar varios agentes para delegar tareas complejas en fragmentos más pequeños. Un agente de planificación central gestiona el flujo de trabajo agéntico mientras los agentes trabajadores completan las partes asignadas de la tarea.
La toma de decisiones autónoma de la IA y la llamada a herramientas se combinan para presentar una amplia superficie de ataque de dos vertientes. Los hackers pueden manipular el comportamiento del agente y hacer que utilice las herramientas de forma incorrecta, o atacar la propia herramienta a través de vectores más tradicionales, como la inyección SQL. La seguridad de agentes de IA busca salvaguardar los sistemas de IA agéntica contra ambos tipos de amenazas.