Como a observabilidade está se ajustando à IA generativa

Homem sentado à mesa no escritório segurando um tablet e olhando para um notebook

Autores

Annie Badman

Staff Writer

IBM Think

Observabilidade é a capacidade de entender o estado interno de um sistema analisando suas saídas externas, principalmente por meio de dados de telemetria , como métricas, eventos, registros e rastreamentos, coletivamente chamados de "dados MELT".

A observabilidade vai além das soluções tradicionais de monitoramento para oferecer insights críticos sobre sistemas de software e ambientes decomputação em nuvem, ajudando as equipes de TI a garantir a disponibilidade, otimizar o desempenho e detectar anomalias.

A maioria dos sistemas de TI se comporta de forma determinística, o que torna a análise de causa raiz bastante simples. Quando um aplicativo falha, as ferramentas de observabilidade podem usar os dados do MELT para correlacionar sinais e identificar falhas, determinando se é um vazamento de memória, falha de conexão com o banco de dados ou tempo limite da API.

Mas grandes modelos de linguagem (LLMs) e outras aplicações de inteligência artificial generativa (IA) complicam a observabilidade. Ao contrário do software tradicional, os LLMs produzem outputs probabilísticos, o que significa que inputs idênticos podem produzir respostas diferentes. Essa falta de interpretabilidade, ou a dificuldade em rastrear como os inputs moldam os outputs, pode causar problemas para as ferramentas convencionais de observabilidade. Como resultado, a resolução de problemas, a depuração e o monitoramento de desempenho são significativamente mais complexos em sistemas de IA generativa.

"A observabilidade pode detectar se uma resposta de IA contém informações de identificação pessoal (PII), por exemplo, mas não pode impedir que isso aconteça" explica Drew Flowers, líder de vendas da Instana nas Américas da IBM. "O processo de tomada de decisão do modelo ainda é uma caixa-preta."

Este fenômeno da "caixa-preta" destaca um desafio crítico para a observabilidade do LLM. Embora as ferramentas de observabilidade possam detectar problemas que ocorreram, elas não podem evitá-los porque têm dificuldades com a explicabilidade da IA, a capacidade de fornecer uma razão humana compreensível pela qual um modelo tomou uma decisão específica ou gerou um output específico.

Até que o problema de explicabilidade seja resolvido, as soluções de observabilidade de IA devem priorizar o que podem medir e analisar de modo eficaz. Isso inclui uma combinação de dados de MELT tradicionais e métricas de observabilidade específicas para IA.

Projeto 3D de bolas rolando em uma pista

As últimas notícias e insights sobre IA 


Descubra insights selecionados por especialistas e notícias sobre IA, nuvem e outros assuntos no boletim informativo semanal Think. 

Métricas críticas para observabilidade da IA generativa

Embora as métricas tradicionais não ofereçam uma visibilidade completa do comportamento do modelo, elas continuam sendo componentes essenciais da observabilidade da IA. O desempenho da CPU, da memória e da rede afeta diretamente a funcionalidade do sistema de IA e a experiência do usuário. Eles podem ajudar as organizações a avaliar a eficiência com que as cargas de trabalho de IA estão sendo executadas e se as restrições de infraestrutura estão afetando o desempenho do modelo e os tempos de resposta.

No entanto, a observabilidade abrangente da IA exige métricas adicionais que monitorem qualidades específicas do comportamento e dos outputs do modelo de IA, incluindo:

  • Uso de token
  • Desvio do modelo
  • Qualidade da resposta
  • Monitoramento da IA responsável

Uso do token

Um token é uma unidade individual de linguagem, geralmente uma palavra ou parte de uma palavra, que um modelo de IA pode entender. O número de tokens que um modelo processa para entender um input ou produzir um output impacta diretamente o custo e o desempenho de uma aplicação baseada em LLM. Um maior consumo de tokens pode aumentar as despesas operacionais e a latência de resposta.

As principais métricas para rastrear o uso de token incluem:

  • Taxas e custos de consumo de token, que podem ajudar a quantificar as despesas operacionais.

  • Eficiência do token, uma medida da eficiência com que cada token é usado em uma interação. Interações eficientes produzem outputs de alta qualidade e, ao mesmo tempo, minimizam o número de tokens consumidos.

  • Padrões de uso de token em diferentes tipos de prompt, que podem ajudar a identificar os usos intensivos de recursos dos modelos.

Essas métricas podem ajudar as organizações a identificar oportunidades de otimização para reduzir o consumo de tokens, por exemplo, refinando os prompts para transmitir mais informações em menos tokens. Ao otimizar o uso de tokens, as organizações podem manter alta qualidade das resposta e, ao mesmo tempo, reduzir potencialmente os custos de inferência das cargas de trabalho de aprendizado de máquina.

Desvio do modelo

Ao contrário do software tradicional, os modelos de IA podem mudar gradualmente seu comportamento à medida que os dados do mundo real evoluem. Esse fenômeno, conhecido como desvio do modelo, pode afetar de maneira significativa a confiabilidade e o desempenho dos sistemas de IA.

As principais métricas para rastrear o desvio do modelo incluem:

  • Mudanças nos padrões de resposta ao longo do tempo para identificar inconsistências emergentes.

  • Variações na qualidade ou relevância do output que podem indicar declínio no desempenho do modelo.

  • Mudanças na latência ou na utilização de recursos que podem sinalizar ineficiências computacionais.

Os mecanismos de detecção de desvios podem fornecer avisos antecipados quando a precisão de um modelo diminui para casos de uso específicos, permitindo que as equipes interfiram antes que o modelo interrompa as operações comerciais.

Qualidade da resposta

O monitoramento da qualidade do output de IA é essencial para manter a confiança, a confiabilidade e a conformidade. As principais métricas para rastrear a qualidade da resposta incluem:

  • Frequência de alucinação em diferentes tipos de prompt para identificar possíveis gatilhos para outputs imprecisos.

  • Precisão factual das respostas geradas, embora isso muitas vezes exija validação externa e supervisão humana.

  • Consistência de outputs para inputs similares para verificar a estabilidade do modelo ao longo do tempo.

  • Relevância das respostas às solicitações do usuário para avaliar como o modelo se alinha com a intenção do usuário.

  • O rastreamento de latência é crítico para aplicações de IA voltadas para o usuário, onde velocidade e precisão muitas vezes exigem compensações. O monitoramento dos tempos de resposta em diferentes tipos de prompt pode ajudar as organizações a identificar gargalos de desempenho e ineficiências computacionais.

Embora o acompanhamento dessas métricas possa ajudar a sinalizar respostas anômalas, as ferramentas de observabilidade não podem explicar completamente por que as alucinações ocorrem, nem podem determinar automaticamente a exatidão do conteúdo gerado por IA. Esses são desafios centrais à confiança e à governança da IA que ainda não foram totalmente abordados por ninguém.

Monitoramento da IA responsável

Garantir a implementação ética da IA e a conformidade regulatória exige um monitoramento abrangente do conteúdo gerado pela IA.

As principais métricas para rastrear a IA responsável incluem:

  • Ocorrência de viés nas respostas para ajudar a garantir a imparcialidade nas interações com os usuários.

  • Instâncias de PII no conteúdo gerado para ajudar a proteger informações confidenciais.

  • Conformidade com as diretrizes éticas de IA para alinhamento aos padrões e regulamentações do setor.

  • Adequação do conteúdo para manter a reputação da marca e a confiança do usuário.

Dashboards de visualização em tempo real com detecção automatizada de anomalias podem alertar as equipes quando os resultados da IA se desviam das normas esperadas. Essa abordagem proativa ajuda as organizações a lidar com problemas rapidamente, monitorar o desempenho da IA ao longo do tempo e garantir a implementação responsável da IA em escala.

Mixture of Experts | 12 de dezembro, episódio 85

Decodificando a IA: resumo semanal das notícias

Participe do nosso renomado painel de engenheiros, pesquisadores, líderes de produtos e outros enquanto filtram as informações sobre IA para trazerem a você as mais recentes notícias e insights sobre IA.

OpenTelemetry e observabilidade da IA

O OpenTelemetry (OTel) surgiu como o framework padrão do setor para coletar e transmitir dados de telemetria e também pode ajudar na observabilidade da IA generativa. Esse projeto de código aberto traz uma abordagem de observabilidade neutra em relação ao fornecedor, que é particularmente valiosa em ecossistemas de IA complexos.

Para provedores de IA, o OpenTelemetry oferece uma maneira de padronizar a forma como eles compartilham dados de desempenho sem expor detalhes proprietários do modelo ou código-fonte. Para as empresas, ele garante que os dados de observabilidade fluam de forma consistente em pipelines complexos de IA que podem incluir vários modelos, várias dependências e sistemas de geração aumentada de recuperação (RAG).

Os principais benefícios do OpenTelemetry para observabilidade da IA generativa incluem:

  • Independência do fornecedor: as organizações evitam ficar presas a plataformas de observabilidade específicas, mantendo a flexibilidade à medida que as tecnologias de IA evoluem.

  • Visibilidade de ponta a ponta: os dados de telemetria fluem de forma consistente de todos os componentes da infraestrutura de aplicações de IA.

  • Preparado para o futuro: à medida que as tecnologias de IA evoluem, o padrão OpenTelemetry se adapta, garantindo que as estratégias de observabilidade permaneçam relevantes.

  • Integração do ecossistema: os padrões abertos permitem a observabilidade em soluções de IA de vários fornecedores e modelos de implementação híbridos.

  • Padronização de metadados: capturar metadados essenciais, incluindo carimbos de data/hora de treinamento, origens do conjunto de dados e inputs do modelo, para fornecer contexto crítico para entender o comportamento do sistema de IA.
Imagem do boletim informativo sobre mensagens de automação

Tenha acesso a todo o poder do IBM® Instana Observability

O IBM Instana Observability ajuda você a alcançar um ROI de 219% e reduzir em 90% o tempo gasto pelos desenvolvedores na solução de problemas.

Velocidade é tudo

As aplicações de IA exigem um investimento significativo, desde custos de licenciamento de modelos até gastos com infraestrutura e recursos de desenvolvedores. As organizações que atrasam a observabilidade da IA generativa correm o risco de desperdiçar recursos se não conseguirem descobrir problemas de desempenho, problemas éticos ou implementações ineficientes.

"Para a observabilidade da IA, o time to value (TTV) é tudo", diz Flowers. "Se eu não começar a obter insights rapidamente, estou queimando dinheiro enquanto espero otimizar meu sistema."

Alguns desafios comuns que retardam a adoção da observabilidade de IA incluem:

  • Dashboards personalizados complexos que exigem configuração e instalação extensivas.

  • Grande volume de dados que cria gargalos no processamento.

  • Falta de automação na configuração de alertas e na geração de relatórios.

  • Dificuldades de integração entre plataformas de IA e ferramentas de observabilidade.

  • Lacunas de habilidades na interpretação de dados de telemetria específicos de IA.

Para superar esses desafios, as organizações devem considerar soluções de observabilidade que ofereçam suporte a:

  • Implementação rápida

  • Insights automatizados

  • Fluxos de trabalho de IA integrados

Implementação rápida

As organizações devem priorizar as soluções de observabilidade que possam implementar rapidamente para obter insights imediatos. As plataformas pré-configuradas podem reduzir significativamente o tempo de configuração e acelerar o TTV, permitindo que as equipes comecem a monitorar os sistemas de IA em dias, em vez de semanas.

Os principais recursos da solução de observabilidade para a rápida implementação da observabilidade da IA incluem:

  • Modelos de dashboard específicos para IA que funcionam imediatamente, com o mínimo de personalização.

  • Instrumentação automatizada que pode começar imediatamente a coletar dados de frameworks e plataformas comuns de IA.

  • Conectores criados previamente para provedores de LLM populares e infraestrutura de IA que eliminam a necessidade de trabalho de integração personalizado.

  • Guias de implementação de início rápido para ajudar as equipes a começarem a trabalhar com abordagens comprovadas para casos de uso comuns de IA.

Insights automatizados

A análise manual de grandes quantidades de dados gerados por IA pode exigir muito tempo e conhecimento, o que geralmente leva a atrasos, erros ou problemas não detectados. As soluções de observabilidade podem automatizar esse processo, permitindo que as equipes se concentrem em questões mais urgentes do que vasculhar dados brutos de telemetria.

As principais automações nas soluções de observabilidade de IA incluem:

  • Uso da detecção de anomalias para identificar irregularidades no comportamento e no desempenho da IA sem a necessidade de configuração manual de limites.

  • Gerar recomendações praticáveis para otimização do sistema, em vez de apenas identificar problemas.

  • Traduzir questões técnicas em explicações relevantes para os negócios.

  • Priorizar alertas com base no impacto para evitar a fadiga de alertas e reduzir o downtime.

Fluxos de trabalho de IA integrados

A observabilidade não deve ser uma reflexão tardia. Incorporá-la ao longo do ciclo de vida de desenvolvimento da IA, capacitará as equipes na organização com visibilidade compartilhada sobre o desempenho do sistema de IA, permitindo uma resolução de problemas mais rápida e uma tomada de decisão mais informada.

Para a observabilidade da IA, o TTV não se trata apenas da rapidez com que as ferramentas de observabilidade podem ser implementadas. Também se trata da rapidez com que essas ferramentas fornecem insights praticáveis que otimizam os investimentos em IA e evitam o downtime.

As principais maneiras de integrar a observabilidade da IA aos fluxos de trabalho de desenvolvimento de IA incluem:

  • Criação de observabilidade em pipelines de CI/CD para aplicações de IA.

  • Testar a instrumentação da observabilidade durante a pré-produção.

  • Captura das métricas do estágio de desenvolvimento para informar o monitoramento da produção .

Do monitoramento à previsão

À medida que a observabilidade da IA amadurece, as organizações estão passando do monitoramento reativo para abordagens preditivas que antecipam os problemas antes que eles afetem os usuários ou os resultados dos negócios. Para dar suporte a isso, as soluções de observabilidade mais avançadas agora incorporam suas próprias ferramentas de IA especializadas para analisar padrões nos dados de telemetria e identificar problemas antes que eles se tornem críticos.

"A IA mais valiosa na observabilidade é a IA preditiva e causal, não a IA generativa", explica Flowers.

Ferramentas de observabilidade com recursos de IA preditivos e causais podem:

  • Prever quando o desvio do modelo atingirá níveis problemáticos.

  • Prever os requisitos ds recursos com base em padrões de uso de IA.

  • Identificar padrões de prompt que possam produzir alucinações.

  • Detectar tendências de viés sutis antes que elas se tornem significativas.

Essa mudança da observabilidade reativa para a preditiva representa a próxima fronteira para as operações de IA, permitindo um gerenciamento mais proativo das aplicações e da infraestrutura de IA, ao mesmo tempo em que garante outputs consistentes e de alta qualidade.

Encontrando a solução certa da observabilidade da IA generativa

Com base nos desafios e soluções discutidos, aqui estão cinco princípios essenciais para se ter em mente quando for procurar a solução de observabilidade certa para as aplicações de IA generativa:

Reconheça as limitações inerentes

Embora a observabilidade da IA forneça insights críticos sobre padrões de desempenho e anomalias, ela não pode explicar totalmente os processos internos de tomada de decisão de grandes modelos linguísticos. Concentre-se em métricas mensuráveis que indicam a integridade e o desempenho do sistema.

Veja além das métricas tradicionais

A observabilidade abrangente da IA generativa requer monitoramento de padrões de uso de token, indicadores de desvio do modelo e relações de prompt-resposta ao lado de métricas de desempenho de infraestrutura tradicionais, como utilização de CPU e consumo de memória.

Concentre-se no time to value

Selecione plataformas de observabilidade que ofereçam recursos de implementação rápida com dashboards pré-configurados e alertas automatizados para obter retornos mais rápidos dos investimentos em IA e evitar problemas operacionais dispendiosos.

Integre a observabilidade no desenvolvimento de software

Integre a instrumentação de observabilidade no início do ciclo de vida do desenvolvimento do software para identificar os problemas antes da implementação, estabelecer as linhas de base do desempenho e criar ciclos de feedback que melhorem a qualidade do sistema de IA.

Adote o OpenTelemetry

A padronização em frameworks abertos de observabilidade ajuda a preparar as estratégias de observabilidade para o futuro, ao mesmo tempo em que oferece visibilidade abrangente de ponta a ponta em sistemas complexos de IA e evita o lock-in com o fornecedor.

Além disso, lembre-se de que adotar o OpenTelemetry não significa que você precisa escolher uma solução de observabilidade de código aberto. Muitas plataformas comerciais, possivelmente já utilizadas por sua organização, oferecem suporte completo a OTel, além de recursos adicionais de nível empresarial.

As soluções comerciais de observabilidade podem fornecer observabilidade totalmente gerenciada com insights orientados por IA e suporte contínuo, minimizando a configuração e a manutenção manuais e melhorando o TTV.

"Se estou sentado ali criando dashboards, criando alertas, criando contexto e dados, estou literalmente focado apenas em criar ferramentas. Não estou otimizando o sistema. Não estou apoiando iniciativas de clientes", diz Flowers. "O que estou fazendo basicamente não me ajuda a ganhar dinheiro."

Com as soluções comerciais de observabilidade, grande parte dessa configuração pode ser automatizada ou pré-configurada. Em vez disso, as equipes podem se concentrar em otimizar o desempenho e a confiabilidade de seus modelos de IA generativa, maximizando tanto seus investimentos em observabilidade quanto os impactos das aplicações de IA no mundo real.

Soluções relacionadas
Observabilidade automatizada full stack

Identifique e corrija rapidamente a fonte do problema. Dados em tempo real e de alta fidelidade oferecem visibilidade total sobre os ambientes dinâmicos das aplicações e da infraestrutura.

Saiba mais sobre observabilidade full stack
Consultoria de AIOps

Eleve a automação e as operações de TI com a IA generativa, alinhando todos os aspectos da sua infraestrutura de TI com as prioridades do negócio.

Saiba mais sobre a consultoria de AIOps
IBM SevOne Network Performance Management

O IBM SevOne Network Performance Management é um software de monitoramento e análise que oferece visibilidade em tempo real e insights sobre redes complexas.

Monitorar o desempenho da rede
Dê o próximo passo

Descubra como a IA para operações de TI oferece os insights necessários para ajudar a impulsionar um desempenho excepcional nos negócios.

Explore soluções AIOps Agende uma demonstração em tempo real