Agenten sind KI-Systeme, die so konzipiert sind, dass sie autonom funktionieren, indem sie planen, Entscheidungen treffen und externe Tools aufrufen. Es ist entscheidend, sich sowohl vor externen Cyberangriffen als auch vor unbeabsichtigten Aktionen der Agenten zu schützen. Da sich die agentische KI schnell entwickelt, entwickelt sich auch die Geschäftswelt in Echtzeit zusammen mit der Technologie weiter.
Ein entscheidendes Merkmal von KI-Agenten ist ihre Fähigkeit, Toolaufrufe durchzuführen, bei denen sie sich mit einer API, einer Datenbank, einer Website oder einem anderen Tool verbinden und dieses bei Bedarf nutzen. Der Toolaufruf wird in der Regel über KI-Agenten-Frameworks und APIs orchestriert.
Theoretisch nutzen Agenten Tools, um ihre eigenen Funktionen bei der Planung und Erledigung komplexer Aufgaben zu erweitern. So könnte beispielsweise ein Kundenservice mit einem Kunden interagieren und sich dann mit einer internen Datenbank verbinden, um auf die Einkaufshistorie des Kunden zuzugreifen.
Multiagentensysteme gehen noch einen Schritt weiter, indem sie mehrere Agenten kombinieren, um komplexe Aufgaben an kleinere Teile zu delegieren. Ein zentraler Planungsagent verwaltet den geschäftlichen Workflow, während die Agenten die ihnen zugewiesenen Teile der Aufgabe erledigen.
Autonome KI-Entscheidungsfindung und Tool-Aufrufe bilden zusammen eine breite, zweigleisige Angriffsfläche. Hacker können das Verhalten des Agenten manipulieren und ihn zum Missbrauch von Tools veranlassen, oder das Tool selbst über traditionellere Vektoren wie SQL-Injection angreifen. Ziel der KI-Agentensicherheit ist der Schutz agentischer KI-Systeme vor beiden Bedrohungsarten.