A camada de observabilidade facilita o monitoramento, o acompanhamento e a avaliação dos fluxos de trabalho de IA. Ela fornece a visibilidade e os insights necessários para entender o desempenho dos modelos de IA em ambientes reais, permitindo que as equipes identifiquem e resolvam problemas imediatamente, mantenham a integridade do sistema e melhorem o desempenho ao longo do tempo.
No núcleo da camada de observabilidade estão ferramentas e frameworks que acompanham diversas métricas relacionadas tanto aos modelos de IA quanto à infraestrutura na qual são executados.
A camada de governança é o framework abrangente que ajuda a garantir que os sistemas de IA sejam implementados, utilizados e mantidos de forma responsável, ética e alinhada com padrões organizacionais e sociais.
Essa camada é fundamental para o gerenciamento de riscos, promoção da transparência e construção de confiança nas tecnologias de IA. Ela abrange políticas e processos para supervisionar o ciclo de vida dos modelos de IA em conformidade com regulamentações legais, princípios éticos e objetivos organizacionais.
Uma função principal da camada de governança é estabelecer políticas de coleta e uso de dados, juntamente com frameworks de conformidade, para cumprir as regulamentações, como o Regulamento Geral de Proteção de Dados (GDPR), a Lei de portabilidade e responsabilidade de planos de saúde (HIPAA) ou diretrizes específicas de IA, incluindo a Lei de IA da UE. Esses frameworks definem como os dados são coletados, armazenados e usados, incentivando a privacidade e a segurança.
Além disso, a governança inclui a criação de mecanismos para auditoria e rastreabilidade, permitindo que as organizações registrem e monitorem decisões de IA, mudanças nos modelos e uso de dados, aspectos críticos para prestar contas e lidar com disputas ou erros.
A camada de governança também lida com questões de imparcialidade, viés e explicabilidade em sistemas de IA. Ela envolve a implementação de ferramentas e técnicas para detectar e mitigar vieses nos dados de treinamento ou nas saídas do modelo, ajudando a incentivar os sistemas de IA a operar de forma equitativa em diversas populações.