Berita teknologi terbaru, didukung oleh insight dari pakar
Tetap terinformasi tentang tren industri yang paling penting—dan menarik—tentang AI, otomatisasi, data, dan di luarnya dengan buletin Think. Lihat Pernyataan Privasi IBM®.
Pengamatan LLM adalah proses pengumpulan data real-time dari model LLM atau aplikasi tentang karakteristik perilaku, kinerja, dan outputnya. Karena LLM kompleks, kita dapat mengamatinya berdasarkan pola dalam apa yang mereka output.1
Solusi pengamatan yang baik terdiri dari pengumpulan metrik, jejak, dan log yang relevan dari aplikasi LLM, antarmuka pemrograman aplikasi (API) dan alur kerja, yang memungkinkan pengembang untuk memantau, men-debug, dan mengoptimalkan aplikasi secara efisien, proaktif, dan dalam skala besar.
Model bahasa besar (LLM) dan platform AI generatif (gen AI) seperti IBM watsonx.ai dan semakin banyak variasi varian sumber terbuka yang berlaku di seluruh industri. Karena peningkatan ini, sangat penting untuk menjaga keandalan, keamanan, dan efisiensi model dan aplikasi setelah adopsi. Ini adalah tempat di mana observabilitas LLM menjadi penting.
Tetap terinformasi tentang tren industri yang paling penting—dan menarik—tentang AI, otomatisasi, data, dan di luarnya dengan buletin Think. Lihat Pernyataan Privasi IBM®.
Metrik observabilitas LLM dapat dikategorikan menjadi tiga dimensi utama.
Pengamatan komprehensif model bahasa besar (LLM) dapat terjadi hanya jika kita melacak metrik pengamatan yang melacak kinerja sistem, konsumsi sumber daya, dan perilaku model.4
Metrik kinerja sistem:
Metrik pemanfaatan sumber daya:
Metrik perilaku model:
Memantau LLM secara manual sulit dilakukan karena volume data yang besar, arsitektur sistem yang kompleks dan kebutuhan untuk pelacakan real-time. Banyaknya log dan metrik membuatnya sulit untuk mengidentifikasi masalah dengan cepat. Selain itu, pengamatan manual membutuhkan banyak sumber daya, rentan terhadap kesalahan dan tidak dapat diskalakan secara efektif saat sistem berkembang, mengakibatkan deteksi masalah yang lebih lambat dan pemecahan masalah yang tidak efisien.
Keterbatasan ini menunjukkan kesulitan untuk mempertahankan observabilitas secara manual dalam LLM, menyoroti kebutuhan akan solusi yang lebih canggih dan otonom untuk pengaturan perusahaan.6
Pemecahan masalah otonom mengacu pada sistem yang dapat mengidentifikasi, mendiagnosis, dan menyelesaikan masalah secara independen tanpa memerlukan campur tangan manusia dengan menggunakan metode pemantauan lanjutan yang menggunakan sistem berbasis agen. Agen-agen ini memantau kinerja, mengidentifikasi anomali, dan melakukan diagnostik waktu nyata, sehingga sistem dapat berjalan tanpa pengawasan dan tanpa campur tangan manusia.7
Pemecahan masalah otonom berbasis agen membantu dengan:
Dirancang untuk skala, IBM® Instana® menghadirkan visibilitas real-time dan pemecahan masalah otonom untuk pengamatan perusahaan yang kompleks saat ini.
Dengan proses tiga langkah—deteksi, diagnosis berbasis AI, dan remediasi otonom—Instana memberikan pemecahan masalah otonom ujung ke ujung untuk membantu memastikan masalah terdeteksi dan diperbaiki sebelum memengaruhi kinerja Anda.8
Untuk mempelajari lebih lanjut tentang kemampuan ini, daftar daftar tunggu Instana Agentic AI.
Skalabilitas AI generatif melibatkan pemecahan masalah secara otomatis dengan instrumen cerdas, pemantauan LLM secara real-time, dan orkestrasi yang efektif. Kumpulan data, output model, dan pengoptimalan respons LLM ditambah pemeliharaan kinerja model yang kuat melalui pipeline yang dioptimalkan dan pengujian LLM real-time, sangat penting untuk pengalaman pengguna yang lancar di berbagai contoh penggunaan seperti chatbot. Sumber terbuka LLM dan penggunaan alur kerja machine learning berkembang dan memanfaatkan teknik penyematan, yang memantau panggilan LLM dengan menggunakan berbagai alat. Alat seperti OpenTelemetry dan lainnya yang menggabungkan alat observabilitas LLM canggih ke dalam platform observabilitas terintegrasi dan dasbor akan sangat penting untuk membangun sistem AI yang dapat diskalakan dan stabil yang memberikan kinerja model yang optimal.9, 10
Memanfaatkan kekuatan AI dan otomatisasi untuk memecahkan masalah secara proaktif di seluruh tumpukan aplikasi.
Maksimalkan ketahanan operasional Anda dan pastikan kesehatan aplikasi cloud-native dengan observabilitas yang didukung AI.
Tingkatkan otomatisasi dan operasi TI dengan AI generatif, yang menyelaraskan setiap aspek infrastruktur TI Anda dengan prioritas bisnis.
1 Kumar, S., & Singh, R. (2024). Don’t blame the user: Toward means for usable and practical authentication. Communications of the ACM, 67(4), 78–85. https://dl.acm.org/doi/10.1145/3706599.3719914.
2 Datadog. (n.d.). Apa itu Observabilitas LLM & Monitoring?. Diakses pada 19 Mei 2025, dari https://www.datadoghq.com/knowledge center/llm-observability/.
3 Observabilitas LLM, GitHub. Diakses 19 Mei 2025 dari https://github.com/DataDog/llm-observability, Datadog. (n.d.).
4 Dong, L., Lu, Q., & Zhu, L. (2024). AgentOps: Enabling Observability of LLM Agents. arXiv. https://arxiv.org/abs/2411.05285.
5 LangChain. (n.d.). Datadog LLM Observability - LangChain, Langsmith .js. Diakses tanggal 19 Mei 2025, dari https://js.langchain.com/docs/integrations/callbacks/datadog_tracer/.
6 Mengoptimalkan Akurasi LLM, Diakses pada tanggal 19 Mei 2025, dari https://platform.openai.com/docs/guides/optimizing-llm-accuracy.
7 IBM Instana Observability. Diakses 19 Mei 2025 dari https://www.ibm.com/id-id/products/instana.
8 Memantau Agen AI. Dokumentasi IBM. Diakses 19 Mei 2025 dari https://www.ibm.com/docs/en/instana-observability/1.0.290?topic=applications-monitoring-ai-agents.
9 Zhou, Y., Yang, Y., & Zhu, Q. (2023). LLMGuard: Preventing Prompt Injection Attacks on LLMs via Runtime Detection. arXiv preprint arXiv:2307.15043. https://arxiv.org/abs/2307.15043.
10 Vesely, K., & Lewis, M. (2024). Real-Time Monitoring and Diagnostics of Machine Learning Pipelines. Journal of Systems and Software, 185, 111136.