Las buenas prácticas tradicionales de gobierno de la IA, como el gobierno de datos, las evaluaciones de riesgos, los flujos de trabajo transparentes, la explicabilidad, las normas éticas y la monitorización continua, también se aplican a los sistemas de agencia. Pero el gobierno agéntico puede ir más allá de estas prácticas establecidas.
En lugar de limitarse a probar los modelos antes de la implementación, las organizaciones pueden crear entornos simulados en los que los agentes de IA puedan tomar decisiones sin consecuencias en el mundo real antes de implementarse por completo. El entorno aislado de IA permite a los desarrolladores estudiar dilemas éticos no deseados antes de exponer a los agentes a usuarios reales. Los modelos de ética de IA pueden someterse a pruebas de estrés moral, como escenarios simulados de accidentes de conducción autónoma o dilemas éticos en la contratación de IA.
La monitorización de agente a agente es otra forma de evitar los problemas antes de que se salgan de control. Dado que los ecosistemas de agencia pueden ser tan complejos, los agentes necesitarán colaborar y negociar entre sí a menudo. Monitorizar estas interacciones y establecer reglas de resolución de conflictos para los agentes puede ayudar a garantizar que puedan trabajar juntos en armonía.
Los agentes de trabajo también pueden combinarse con "agentes de gobierno" diseñados para monitorizar y evaluar a otros agentes y prevenir posibles daños. Para mitigar los riesgos, los agentes deben monitorizarse continuamente para detectar la desviación del modelo. Imagine a un agente de servicio de atención al cliente que trata con clientes malhumorados todo el día y que desarrolla una personalidad de mal genio como resultado de adaptarse a tales interacciones. Ahora imagine a un agente de gobierno comportándose como un monitor de pasillo, apartando a este agente y comunicando algo como: "Hoy no parece usted mismo". Los agentes también pueden programarse para buscar la aprobación humana para ciertas acciones.
Más allá de estas prácticas, muchos expertos recomiendan que los agentes dispongan de un mecanismo de apagado de emergencia que permita desactivarlos inmediatamente, especialmente en entornos de alto riesgo. Las organizaciones pueden establecer procedimientos de contención para ayudar a garantizar que la IA que funciona mal no pueda escalar los problemas antes de la intervención. Algunas organizaciones están experimentando con agentes de pruebas de estrés con ataques adversos en casos límite y en condiciones extremas o inesperadas para identificar vulnerabilidades.
El gobierno de los agentes de IA pronto será un poco más fácil. Los proveedores de plataformas de gobierno ofrecerán herramientas de gobierno de la IA con paneles de control que proporcionan acceso a métricas especializadas para sistemas de agencia e interacción de agentes. Por ejemplo, los ingenieros de software de IBM están trabajando actualmente en la integración de métricas especializadas como la relevancia del contexto, la fidelidad y la similitud de las respuestas en watsonx.gov. El software de gobierno adecuado ayudará a los stakeholders a realizar un seguimiento de sus agentes a lo largo de todo su ciclo de vida, lo que les permitirá aprovechar al máximo la IA agéntica.
A medida que los sistemas de IA agéntica se vuelven más autónomos, garantizar que funcionen de forma segura, ética y protegida es un desafío cada vez mayor. Las organizaciones deben adoptar modelos de gobierno escalables, aplicar protocolos sólidos de ciberseguridad y gestión de riesgos e integrar la supervisión humana en el bucle. Si las organizaciones pueden escalar los sistemas agénticos de forma segura, podrán capturar un valor prácticamente ilimitado.