A observabilidade da IA generativa do IBM® Instana integra o monitoramento de IA aos mesmos fluxos de trabalho poderosos que as equipes já usam para suas aplicações full-stack. Ela descobre e associa automaticamente agentes, cadeias e tarefas e depois conecta seus dados ao restante da sua infraestrutura. Com visibilidade nativa de prompts, saídas, tokens, latência, custos e erros, as equipes podem rastrear problemas rapidamente, otimizar o desempenho e operar aplicativos orientados por IA com confiança.
Baseado nos padrões OpenLLMetry, o Instana suporta os principais provedores e frameworks, incluindo IBM watsonx.ai, Amazon Bedrock, OpenAI, Anthropic, Groq, DeepSeek, LangChain, LangGraph e CrewAI, bem como tempos de execução como vLLM e GPUs. Essa abordagem de ecossistema aberto mantém sua observabilidade de IA portátil, ciente dos custos e pronta para a governança, oferecendo clareza de ponta a ponta, do modelo à infraestrutura, sem trocar de ferramentas.
O Instana descobre automaticamente componentes de IA, incluindo agentes, cadeias e tarefas, e associa seus relacionamentos a serviços e infraestrutura. Esse recurso inclui modelagem e monitoramento da hierarquia de tarefas para visualizar fluxos e identificar a origem dos problemas.
Acompanhe cada passo entre agentes, chamadas de ferramentas, recuperações (retrievals) e invocações de modelo, correlacionando com sinais de APM tradicionais. A investigação de incidentes em tempo real coloca os spans de IA na mesma linha do tempo que microsserviços, bancos de dados e redes.
Monitore o uso de tokens e o custo modelado em níveis detalhados para otimizar modelos, prompts e instâncias. Use esses insights para evitar estouros de custo e adequar os gastos aos objetivos de desempenho.
Capture prompts e saídas (com ocultação configurável), latência, taxa de transferência, taxas de erro e metadados de modelo ou provedor com as convenções do OpenLLMetry. Esses sinais operacionais podem gerar dashboards e alertas que ajudam a detectar comportamentos arriscados e encaminhá-los aos proprietários certos.
Aproveite a instrumentação nativa do OpenLLMetry (Trace loop) com cobertura para os principais provedores de modelo e frameworks, GPUs e tempos de execução como o vLLM. Mantenha os dados de IA portáteis e independentes de fornecedor, unificando-os com o monitoramento avançado de APM e de infraestrutura do Instana.
Entenda o complexo mapeamento da sua infraestrutura por meio do monitoramento em tempo real de aplicações nativas da nuvem.
Resolva problemas antes que afetem seus clientes com decisões baseadas em IA.
Melhore a visibilidade com o Instana para aproveitar ao máximo seu investimento na AWS.