La capa de observabilidad facilita el monitoreo, el seguimiento y la evaluación de los flujos de trabajo de IA. Proporciona la visibilidad y los insights necesarios para comprender cómo funcionan los modelos de IA en entornos del mundo real, lo que permite a los equipos identificar y resolver problemas rápidamente, mantener en buen estado los sistemas y mejorar el rendimiento a lo largo del tiempo.
En el núcleo de la capa de observabilidad se encuentran herramientas e infraestructuras que dan seguimiento a diversas métricas relacionadas tanto con los modelos de IA como con la infraestructura en la que se ejecutan.
La capa de gobernanza es el marco global que ayuda a garantizar que los sistemas de IA se desplieguen, utilicen y mantengan de manera responsable, ética y en consonancia con los estándares organizacionales y sociales.
Esta capa es crucial para gestionar los riesgos, promover la transparencia y generar confianza en las tecnologías de IA. Abarca políticas y procesos para supervisar el ciclo de vida de los modelos de IA con regulaciones legales, principios éticos y objetivos organizacionales.
Una función principal de la capa de gobernanza es establecer políticas de recopilación y uso de datos junto con marcos de conformidad para cumplir con regulaciones como el Reglamento General de Protección de Datos (RGPD), la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) o pautas específicas respecto de la IA, incluida la Ley de IA de la Unión Europea.. Estos marcos definen cómo se recopilan, almacenan y utilizan los datos, fomentando así la privacidad y la seguridad.
Además, la gobernanza incluye la creación de mecanismos de auditabilidad y trazabilidad, lo que permite a las organizaciones registrar y rastrear las decisiones de IA, los cambios en los modelos y el uso de datos, lo cual es crítico para la rendición de cuentas, así como para resolver disputas o errores.
La capa de gobernanza también aborda cuestiones de equidad, sesgo y explicabilidad en los sistemas de IA. Supone la implementación de herramientas y técnicas para detectar y mitigar los sesgos en los datos de entrenamiento o en las salidas de los modelos, ayudando así a fomentar que los sistemas de IA funcionen de forma equitativa en poblaciones diversas.