Gli agenti sono sistemi AI progettati per funzionare autonomamente pianificando, prendendo decisioni e chiamando strumenti esterni. È critico proteggersi sia dagli attacchi informatici esterni che dalle azioni non intenzionali intraprese dagli agenti. Poiché l'agentic AI è un campo in rapido sviluppo, il landscape delle minacce si sta evolvendo in tempo reale insieme alla tecnologia.
Una caratteristica distintiva degli agenti AI è la loro capacità di eseguire le chiamate agli strumenti, in cui si connettono a un'API, a un database, a un sito Web o a un altro strumento e lo utilizzano quando necessario. La chiamata agli strumenti è in genere orchestrata tramite framework di agenti AI e API.
In teoria, gli agenti utilizzano degli strumenti per aumentare le proprie funzionalità nella pianificazione e nel completamento di attività complesse. Ad esempio, un agente del servizio clienti potrebbe interagire con un cliente, quindi connettersi a un database interno per accedere alla cronologia degli acquisti di quel cliente.
I sistemi multiagente fanno un ulteriore passo avanti, combinando più agenti per delegare attività complesse in parti più piccole. Un agente di pianificazione centrale gestisce il workflow agentico mentre gli agenti worker completano le parti dell'attività assegnate.
Il processo decisionale dell'AI e la chiamata degli strumenti si combinano per presentare una superficie di attacco su due fronti. Gli hacker possono manipolare il comportamento dell'agente e indurlo a fare un uso improprio degli strumenti o attaccare lo strumento stesso attraverso vettori più tradizionali come l'iniezione SQL. La sicurezza degli agenti AI mira a salvaguardare i sistemi di agentic AI da entrambi i tipi di minacce.