Los agentes son sistemas de IA diseñados para funcionar de forma autónoma mediante la planificación, la toma de decisiones y la llamada a herramientas externas. Es crítico protegerse contra ciberataques externos y acciones no intencionadas realizadas por los agentes. Debido a que la IA agéntica es un campo en rápido desarrollo, el escenario de amenazas está evolucionando en tiempo real junto con la tecnología.
Una característica definitoria de los agentes de IA es su capacidad para realizar llamadas de herramientas, en las que se conectan a una API, base de datos, sitio web u otra herramienta y la usan cuando es necesario. Las llamadas a herramientas generalmente se orquestan a través de marcos de agentes de IA y API.
En teoría, los agentes utilizan herramientas para aumentar sus propias capacidades en la planificación y finalización de tareas complejas. Por ejemplo, un agente de atención al cliente podría interactuar con un cliente y luego conectarse a una base de datos interna para acceder al historial de compras de ese cliente.
Los sistemas multiagente van un paso más allá al combinar varios agentes para delegar tareas complejas en fragmentos más pequeños. Un agente de planificación central gestiona el flujo de trabajo agéntico mientras los agentes trabajadores completan las partes asignadas de la tarea.
La toma de decisiones autónoma de IA y la llamada a herramientas se combinan para presentar una amplia superficie de ataque de dos frentes. Los hackers pueden manipular el comportamiento del agente y hacer que haga un mal uso de las herramientas, o atacar la propia herramienta a través de vectores más tradicionales, como la inyección SQL. La seguridad de los agentes de IA busca salvaguardar los sistemas de IA agéntica contra ambos tipos de amenazas.