IBM Instana®生成AIオブザーバビリティーは、チームがフルスタック・アプリケーションで既に使用しているのと同様の強力なワークフローにAI監視を取り入れます。エージェント、チェーン、タスクを自動的に検出してマッピングし、それらのデータをインフラストラクチャーの残りの部分に接続します。プロンプト、アウトプット、トークン、レイテンシー、コスト、エラーを可視化する機能が組み込まれているため、チームは迅速に問題を追跡し、パフォーマンスを最適化し、自信を持ってAI駆動型アプリケーションを運用できます。
InstanaはOpenLLMetry標準に準拠しており、IBM watsonx.ai、Amazon Bedrock、OpenAI、Anthropic、Groq、DeepSeek、LangChain、LangGraph、CrewAIなどの主要なプロバイダーとフレームワーク、およびvLLMやGPUなどのランタイムをサポートしています。このオープン・エコシステムのアプローチにより、AIのオブザーバビリティーの可搬性、コスト意識、ガバナンス対応が維持され、ツールを切り替えることなく、モデルからインフラストラクチャーまで、エンドツーエンドの透明性を確保できます。
Instanaは、エージェント、チェーン、タスクなどのAIコンポーネントを自動的に検出し、それらの関係をサービスやインフラストラクチャーにマッピングします。この機能には、フローを視覚化し、問題の発生場所を特定するためのタスク階層のモデリングと監視が含まれます。
従来のAPM(アプリケーション・パフォーマンス管理)のシグナルと関連付けながら、エージェント、ツール呼び出し、取得、モデル呼び出しのすべてのステップを追跡します。リアルタイムのインシデント調査により、マイクロサービス、データベース、ネットワークと同じタイムラインでAIのスパンを把握できます。
トークンの使用状況とモデル化されたコストをきめ細かく追跡し、モデル、プロンプト、テナントを最適化します。これらの洞察を利用して超過を防ぎ、業績目標に支出を合わせます。
OpenLLMetryの規則を使用して、プロンプトとアウトプット(構成可能な編集を含む)、レイテンシー、スループット、エラー率、モデルまたはプロバイダーのメタデータを取得します。これらの運用上のシグナルを、ダッシュボードやアラートに反映して、リスクが高い行動の検知や、適切な所有者へのルーティングを可能にします。
主要なモデル・プロバイダーやフレームワーク、GPU、vLLMなどのランタイムをカバーするネイティブのOpenLLMetry(トレース・ループ)計装を活用します。Instanaの成熟したAPMやインフラ監視と統合しながら、AIデータの可搬性やベンダー中立性を維持できます。