Webinar on demand
Via via che le organizzazioni adottano rapidamente gli agenti AI per automatizzare i workflow e il processo decisionale, il perimetro di sicurezza si è spostato nuovamente. I sistemi autonomi ora interagiscono con dati sensibili, API e utenti umani in tempo reale, creando nuove classi di minacce che i controlli di sicurezza tradizionali non sono stati progettati per gestire.
• Cosa succede quando un agente AI viene manipolato per divulgare dati?
• Come si rilevano la prompt injection o il context poisoning dannoso?
• È possibile applicare i controlli sugli agenti AI su larga scala?
Ascolta gli esperti di IBM che analizzano vettori di attacco reali, framework emergenti e strategie di difesa pratiche per proteggere gli agenti AI negli ambienti aziendali.
Relatori:
Jeff Crume
Distinguished Engineer | Master Inventor | Data and AI Security Architect, IBM
Anshul Garg
Sr. Product Marketing Manager, IBM