Las mejores prácticas de gobernanza de IA tradicionales, como la gobernanza de datos, las evaluaciones de riesgos, los flujos de trabajo transparentes, la explicabilidad, los estándares éticos y el monitoreo continuo también se aplican a los sistemas agénticos. Pero la gobernanza agéntica puede ir más allá de estas prácticas establecidas.
En lugar de solo probar los modelos antes del despliegue, las organizaciones pueden crear entornos simulados donde los agentes de IA pueden tomar decisiones sin consecuencias en el mundo real antes de desplegarse por completo. El sandbox de IA permite a los desarrolladores estudiar dilemas éticos no deseados antes de exponer a los agentes a usuarios reales. Los modelos éticos de IA pueden someterse a pruebas de estrés moral, como escenarios simulados de accidentes de conducción autónoma o dilemas éticos en la contratación de IA.
El monitoreo de agente a agente es otra forma de evitar los problemas antes de que se salgan de control. Debido a que los ecosistemas de agentes pueden ser tan complejos, los agentes necesitarán colaborar y negociar entre sí a menudo. Monitorear estas interacciones y establecer reglas de resolución de conflictos para los agentes puede ayudar a garantizar que trabajen juntos en armonía.
Los agentes de trabajo también pueden combinarse con "agentes de gobernanza" diseñados para monitorear y evaluar a otros agentes, y prevenir posibles daños. Para la mitigación de riesgos, los agentes deben monitorearse continuamente para detectar la desviación del modelo. Imagine un agente de atención al cliente que trata con clientes malhumorados todo el día y desarrolla una personalidad de mal genio como resultado de adaptarse a tales interacciones. Ahora imaginemos a un agente de gobernanza que se comporta como un vigilante de corredor, que se lleva a este agente y le comunica algo como: "No te ves bien hoy". Los agentes también pueden programarse para buscar la aprobación humana para ciertas acciones.
Más allá de estas prácticas, muchos expertos recomiendan que los agentes tengan un mecanismo de apagado de emergencia que les permita desactivarlos de inmediato, especialmente en entornos de alto riesgo. Las organizaciones pueden establecer procedimientos de contención para ayudar a garantizar que la IA que funciona mal no pueda escalar los problemas antes de la intervención. Algunas organizaciones están experimentando con agentes de pruebas de estrés con ataques adversarios en casos extremos y en condiciones extremas o inesperadas para identificar vulnerabilidades.
Controlar los agentes de IA pronto será un poco más fácil. Los proveedores de plataformas de gobernanza ofrecerán sólidas herramientas de gobernanza de la IA con paneles que brindan acceso a métricas especializadas para sistemas de agentes y la interacción de los agentes. Por ejemplo, los ingenieros de software de IBM están trabajando actualmente en la integración de métricas especializadas, como la relevancia del contexto, la fidelidad y la similitud de respuestas en watsonx.gov. El software de gobernanza adecuado ayudará a los stakeholders a realizar un seguimiento de sus agentes a lo largo de su ciclo de vida de extremo a extremo, lo que les permitirá aprovechar al máximo IA agéntica.
A medida que los sistemas de IA agéntica se vuelven más autónomos, garantizar que funcionen de manera segura y ética es un desafío creciente. Las organizaciones deben adoptar modelos de gobernanza escalables, aplicar protocolos sólidos de ciberseguridad y gestión de riesgos e integrar la supervisión humana en el bucle. Si las organizaciones pueden escalar los sistemas agénticos de forma segura, podrán capturar un valor prácticamente ilimitado.