Agentes são sistemas de IA projetados para funcionar de forma autônoma, planejando, tomando decisões e acionando ferramentas externas. É crítico proteger contra ataques cibernéticos externos e ações não intencionais adotadas pelos agentes. Como a IA agêntica é um campo em rápido desenvolvimento, o cenário de ameaças está evoluindo em tempo real junto com a tecnologia.
Uma funcionalidade definidora dos agentes de IA é a capacidade de realizar chamadas de ferramentas, na qual eles se conectam a uma API, banco de dados, site ou outra ferramenta e as utilizam quando necessário. A chamada de ferramentas é normalmente orquestrada por meio de frameworks de agentes de IA e APIs.
Em teoria, os agentes usam ferramentas para aumentar seus próprios recursos no planejamento e conclusão de tarefas complexas. Por exemplo, um agente de atendimento ao cliente pode interagir com um cliente e, em seguida, conectar-se a um banco de dados interno para acessar o histórico de compras desse cliente.
Os sistemas multiagentes levam as coisas um passo adiante, ao combinar vários agentes para delegar tarefas complexas em partes menores. Um agente de planejamento central gerencia o fluxo de trabalho agêntico, enquanto os agentes trabalhadores concluem as partes atribuídas da tarefa.
A tomada de decisão de IA autônoma e a chamada de ferramentas se combinam para apresentar uma ampla superfície de ataque em duas frentes. Os hackers podem manipular o comportamento do agente e fazer com que ele use ferramentas incorretas ou ataque a própria ferramenta por meio de vetores mais tradicionais, como injeção de SQL. A segurança de agentes de IA busca proteger os sistemas de IA agêntica contra ambos os tipos de ameaças.