Les agents sont des systèmes d’IA conçus pour fonctionner de manière autonome en planifiant, en prenant des décisions et en appelant des outils externes. Il est critique de se protéger contre les cyberattaques externes et les actions involontaires prises par les agents. L’IA agentique étant un domaine en plein essor, les menaces évoluent en temps réel, au même titre que la technologie.
Une fonctionnalité déterminante des agents IA est leur capacité à effectuer des appels d’outils en se connectant à une API, à une base de données, à un site Web ou à un autre outil et à les utiliser en cas de besoin. L’appel d'outils est généralement orchestré par des cadres d’agent IA et des API.
En théorie, les agents utilisent des outils pour renforcer leurs propres capacités en matière de planification et de réalisation de tâches complexes. Par exemple, un agent du service client peut interagir avec un client, puis se connecter à une base de données interne pour accéder à l’historique des achats de ce client.
Les systèmes multi-agents vont encore plus loin en combinant plusieurs agents pour déléguer des tâches complexes en petits morceaux. Un agent de planification central gère le workflow agentique, tandis que les agents travailleurs exécutent les parties qui leur sont attribuées.
La prise de décision autonome de l’IA et l’appel d’outils s’associent pour présenter une large surface d’attaque à deux volets. Les hackers peuvent manipuler le comportement de l’agent et l’amener à utiliser des outils à mauvais escient, ou attaquer l’outil lui-même par le biais de vecteurs plus traditionnels tels que l’injection SQL. La sécurité de l’agent d’IA cherche à protéger les systèmes d’IA agentique contre ces deux types de menaces.