Apa itu Model Context Protocol (MCP)?

Penulis

Anna Gutowska

AI Engineer, Developer Advocate

IBM

Model Context Protocol (MCP) berfungsi sebagai lapisan standardisasi untuk aplikasi AI agar dapat berkomunikasi secara efektif dengan layanan eksternal, seperti alat, basis data, dan templat yang telah ditentukan sebelumnya.

Pernahkah Anda mencoba membangun sistem multiagen tetapi kesulitan untuk menghasilkan penyebaran informasi yang efektif di antara tiap agen khusus? Apakah berbagai alat yang telah dibangun sebelumnya dan khusus yang disediakan bagi agen AI Anda menyebabkan kesalahan eksekusi alat atau penguraian output? Atau mungkin, apakah komplikasi ini membuat Anda enggan mencoba mengembangkan agen Anda sendiri sepenuhnya?

Hambatan ini dapat diatasi dengan Model Context Protocol (MCP). MCP memungkinkan agen AI untuk sadar konteks sekaligus mematuhi protokol yang dibakukan untuk integrasi alat.

Agen AI adalah sistem atau program yang mampu melakukan tugas secara mandiri atas nama pengguna atau sistem lain. Sistem ini melakukannya dengan merancang alur kerja dan menggunakan alat yang tersedia. Sistem multiagen terdiri dari beberapa agen AI yang bekerja secara kolektif untuk melakukan tugas atas nama pengguna atau sistem lain.

Anda dapat membayangkan fungsi MCP untuk aplikasi AI yang sama seperti fungsi port USB-C untuk perangkat keras.1 Analogi ini menyoroti kemampuan beradaptasi yang disediakan port USB-C untuk menghubungkan perangkat keras, bandingkan dengan cara standar di mana berbagai alat dan sumber data memberikan konteks kepada model AI melalui MCP.

Alat memberikan makna

Model bahasa besar (LLM) seperti Granite, Gemini, dan Llama memiliki keterbatasan dalam kemampuan mereka saat diterapkan sendiri. Tanpa alat AI apa pun, LLM terampil dalam beberapa bidang termasuk:

  • Prediksi teks selanjutnya: Memerintahkan LLM untuk melengkapi kalimat seperti “Jack dan Jill naik ke...” menghasilkan prediksi yang benar, yaitu “Jack dan Jill naik ke bukit.” Prompt dan respons ini adalah contoh prediksi teks berikutnya dan bekerja paling baik pada teks yang digunakan untuk melatih model.
  • T&J Dasar: Karena LLM sendiri tidak dapat mengakses basis data eksternal atau pencarian web, model ini dapat menjawab pertanyaan bahasa alami yang berkaitan dengan informasi dalam data yang digunakan untuk melatih model. Contohnya adalah “Ceritakan tentang perjanjian Versailles” karena informasi tentang perang dunia besar ini kemungkinan besar termasuk dalam data pelatihan model umum. LLM sering melakukan pembuatan teks ini dalam bentuk chatbot.
  • Analisis sentimen: LLM dapat memproses teks dan menentukan apakah teks mengekspresikan sentimen positif, negatif, atau netral.
  • Terjemahan bahasa: LLM dapat menerjemahkan teks lintas bahasa dan geografi. Namun, tidak setiap LLM dilatih dengan data dari lebih dari satu bahasa.

Selain fungsi dasar, LLM tanpa akses ke alat eksternal tidak dapat berhasil menjalankan kueri pengguna apa pun yang memerlukan akses ke informasi real-time. Guna memberikan LLM kesempatan untuk menghasilkan hasil yang lebih bermakna, integrasi alat dapat diperkenalkan. Menyediakan alat eksternal seperti pencarian web, kumpulan data, dan API memungkinkan LLM untuk memperluas kemampuannya melampaui data pelatihannya.

Untuk mengambil satu langkah lebih jauh, kita dapat membangun agen AI menggunakan LLM dan alat yang tersedia. Ringkasnya, sistem agen memberikan LLM seperangkat alat, memungkinkan model untuk menentukan penggunaan alat yang tepat, beradaptasi dengan lingkungan yang berubah, dan membentuk kesimpulan yang dipadukan berdasarkan output alat. Namun, dalam skala besar, sistem AI ini cenderung gagal. Oleh karena itu, MCP, yang diperkenalkan oleh Anthropic pada tahun 2024, menetapkan standar terbuka untuk interaksi alat AI.2

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

MCP menetapkan standar

Sangat rumit untuk menghubungkan layanan eksternal ke LLM. Bayangkan sirkuit listrik yang menghubungkan mesin ke berbagai sumber daya. MCP berfungsi seperti sistem kabel dan panel kontrol dalam sirkuit ini; ia menentukan arus listrik (informasi) yang mengalir ke mesin (model AI). Output alat atau konteks model dapat dibandingkan dengan arus input—ini adalah tegangan yang mengalir dari daya dan dapat mencakup memori, alat, dan temuan masa lalu.

Sebagai panel kontrol, MCP memutuskan sumber daya mana (output alat atau konteks) yang akan dihubungkan dan kapan melakukannya, mengatur arus (aliran informasi), menyaring dan memprioritaskan input. MCP melakukannya untuk memastikan bahwa hanya kabel yang relevan yang diberi tegangan (konteks yang relevan dimuat) dan mengelola waktu dan rute sirkuit agar tidak membebani sistem secara berlebihan.

Sama seperti sirkuit yang dirancang dengan baik mencegah kelebihan beban dan memastikan penggunaan daya yang efisien, MCP berfungsi sebagai konektor untuk memfasilitasi penggunaan konteks yang efisien, relevan, dan terstruktur untuk kinerja model AI yang optimal.

MCP menetapkan standar sumber terbuka baru untuk disepakati oleh para insinyur AI. Namun, standar bukanlah konsep baru dalam industri perangkat lunak. Misalnya, REST API adalah standar industri, menawarkan pertukaran data yang konsisten di antara aplikasi melalui permintaan HTTP yang selaras dengan prinsip desain REST.

Demikian pula, MCP menyatukan LLM dan layanan eksternal untuk berkomunikasi secara efisien dengan menetapkan standar. Standar ini memungkinkan penggunaan alat "plug-and-play" ketimbang menulis kode untuk integrasi khusus setiap alat.

MCP bukanlah kerangka kerja agen, tetapi lapisan integrasi standar untuk agen yang mengakses alat. Protokol ini melengkapi kerangka kerja orkestrasi agen. MCP dapat melengkapi kerangka kerja orkestrasi agen seperti LangChain, LangGraph, BeeAI, LlamaIndex, dan crewAI, tetapi tidak menggantikannya; MCP tidak memutuskan kapan alat dipanggil dan untuk tujuan apa.

MCP hanya menyediakan koneksi standar untuk merampingkan integrasi alat.3 Pada akhirnya, LLM menentukan alat mana yang akan dipanggil berdasarkan konteks permintaan pengguna.

Agen AI

5 Jenis Agen AI: Fungsi Otonom & Aplikasi Dunia Nyata

Pelajari bagaimana AI berbasis tujuan dan berbasis utilitas beradaptasi dengan alur kerja dan lingkungan yang kompleks.

Arsitektur MCP

Model klien/server MCP dapat dibagi menjadi tiga komponen arsitektur utama:

Host MCP

Aplikasi AI menerima permintaan pengguna dan mencari akses ke konteks melalui MCP. Lapisan integrasi ini dapat mencakup IDE seperti Cursor atau Claude Desktop. Ini berisi logika orkestrasi dan dapat menghubungkan setiap klien ke server. Ini berisi logika orkestrasi dan dapat menghubungkan setiap klien ke server.4

Klien MCP

Komunikasi dalam ekosistem MCP antara host dan server harus dilakukan melalui klien. Klien ini berada di dalam host dan mengubah permintaan pengguna menjadi format terstruktur yang dapat diproses oleh protokol terbuka. Host MCP tunggal dapat memiliki beberapa klien, tetapi setiap klien memiliki hubungan 1:1 dengan server MCP.

Contoh klien MCP adalah IBM BeeAI, Microsoft Copilot Studio, Claude.ai, Windsurf Editor, dan Postman. Klien berfungsi sebagai manajer sesi dengan menangani interupsi, batas waktu, koneksi ulang, dan penutupan sesi. Klien juga memproses respons, melakukan penanganan kesalahan, dan memverifikasi bahwa respons relevan dengan konteks dan sesuai.4

Server MCP

Layanan eksternal yang menyediakan konteks pada LLM dengan mengubah permintaan pengguna ke tindakan server. Contoh integrasi server MCP termasuk Slack, GitHub, Git, Docker, atau pencarian web. Server ini biasanya merupakan repositori GitHub yang tersedia dalam berbagai bahasa pemrograman (C#, Java, TypeScript, Python, dan lainnya) dan menyediakan akses ke alat MCP.

Tutorial biasanya dapat ditemukan dalam repositori GitHub ini untuk membantu implementasi teknis. Server MCP juga dapat digunakan untuk menghubungkan inferensi LLM melalui penyedia platform AI, seperti IBM dan OpenAI, ke MCP SDK. Dengan demikian, layanan MCP yang dapat digunakan kembali dibuat agar klien dapat mengakses alat obrolan “standar”.

Server MCP serbaguna karena memungkinkan koneksi ke sumber daya dan alat internal dan eksternal. Menurut dokumen yang disediakan oleh Anthropic, server Model Context Protocol mengekspos data melalui:

  • Sumber daya: Pengambilan informasi dari basis data internal atau eksternal. Sumber daya menampilkan data tetapi tidak menjalankan perhitungan yang dapat ditindaklanjuti.5
  • Alat: Pertukaran informasi menggunakan alat yang dapat melakukan fungsi lain seperti perhitungan atau mengambil data melalui permintaan API.6
  • Prompt: Templat dan alur kerja yang dapat digunakan kembali untuk komunikasi antara LLM dan server.7

Lapisan transportasi antara klien dan server bertanggung jawab untuk konversi pesan dua arah. Dalam aliran data dari klien ke server, pesan protokol MCP dikonversi ke format JSON-RPC yang memungkinkan pengiriman berbagai struktur data dan aturan pemrosesannya.8

Dalam aliran balik data dari server ke klien, pesan yang diterima dalam format JSON-RPC dikonversi kembali menjadi pesan protokol MCP.9 Tiga jenis pesan JSON-RPC termasuk permintaan, respons, dan pemberitahuan. Permintaan memerlukan respons dari server; notifikasi tidak memerlukannya.

Arsitektur Model Context Protocol Arsitektur Model Context Protocol

Pada lapisan transportasi antara klien dan server, terdapat dua metode transportasi utama untuk protokol MCP, keduanya mengirimkan pesan dalam format JSON-RPC 2.0. Yang pertama adalah input/output standar (stdio) yang paling cocok untuk mengintegrasikan sumber daya lokal karena transmisi informasi input/output yang sederhana. Format ini digunakan untuk pesan ringan dan sinkron.4 Sumber daya tersebut termasuk sistem file lokal, basis data, dan API lokal.

Yang kedua adalah peristiwa yang dikirim server (SSE) yang paling cocok untuk mengintegrasikan sumber daya jarak jauh. Permintaan HTTP POST berfungsi sebagai mekanisme untuk mengirimkan pesan klien ke server dan SSE digunakan untuk sebaliknya. Format ini dapat digunakan untuk menangani banyak panggilan server asinkron berbasis peristiwa secara bersamaan.4

Manfaat MCP

Bayangkan sebuah AI di dunia nyata yang memindai kotak masuk Anda untuk menjadwalkan pertemuan klien, mengirim pembaruan saham, dan mengirim ringkasan aktivitas Slack dalam satu jam terakhir. Setiap penyedia layanan membangun API mereka secara berbeda dengan meminta informasi yang berbeda untuk dikirimkan dan mengembalikan skema output yang berbeda. Dengan demikian, perubahan sekecil apa pun pada alat ini dapat mengakibatkan runtuhnya seluruh infrastruktur alur kerja AI ini.

Ada juga beban pengembangan yang signifikan pada insinyur untuk secara manual membangun koneksi alat ini, melakukan debug, dan memelihara otentikasi seperti kunci API dan izin alat. Alat sering kali bergantung pada output dari berbagai alat lain dan terdapat banyak kasus tidak terduga di mana koneksi ini gagal.

Dengan demikian, sangat penting untuk menyediakan integrasi MCP sebagai lapisan tengah antara LLM dan alat pengembangan. Dalam lapisan ini, MCP dapat mengonversi output alat dengan cara yang dapat dipahami oleh model. Tanpa perlu berganti-ganti CLI, semua integrasi alat terjadi di satu tempat.

Ada banyak contoh penggunaan dunia nyata untuk MCP. Misalnya, MCP meningkatkan orkestrasi dan komunikasi multiagen melalui ruang kerja bersama dengan alat-alat yang sama, sehingga menghilangkan kebutuhan akan integrasi langsung.3

MCP juga dapat digunakan untuk melengkapi pembuatan respons dengan pengambilan data yang ditingkatkan (RAG). Alih-alih menyediakan pengambil data untuk mencari penyimpanan vektor atau basis pengetahuan, MCP dapat terhubung ke basis data vektor melalui tindakan server. Mencari basis data sebagai alat ketimbang meneruskan pengambil data dalam setiap pemanggilan LLM memungkinkan penggunaan alat tersebut secara lebih strategis. Pendekatan ini juga memungkinkan pemanggilan alat lebih lanjut saat pengambilan data.3

Masa Depan MCP

MCP menggambarkan pendekatan yang berkembang pada integrasi alat LLM yang terus berkembang dan membentuk kembali ruang dari waktu ke waktu. Seiring dengan munculnya tantangan teknis dan perkembangan server MCP, standar beradaptasi dan MCP terus meningkat.

Terlepas dari itu semua, kebutuhan akan integrasi alat standar sangat penting bagi agen AI untuk beroperasi secara mandiri dan beradaptasi secara dinamis dengan lingkungan dunia nyata.10 Dengan MCP, kita dapat merampingkan otomatisasi alur kerja agen yang kompleks untuk memungkinkan pengawasan manusia yang lebih sedikit. Pada akhirnya, pergeseran ini yang dimungkinkan oleh MCP memungkinkan kita untuk menghabiskan waktu pada tugas yang lebih kompleks dan membutuhkan kecerdasan serta intuisi manusia. 

Solusi terkait
Agen AI untuk bisnis

Bangun, terapkan, dan kelola asisten dan agen AI yang kuat yang mengotomatiskan alur kerja dan proses dengan AI generatif.

    Menjelajahi watsonx Orchestrate
    Solusi agen AI IBM

    Bangun masa depan bisnis Anda dengan solusi AI yang dapat Anda percaya.

    Jelajahi solusi agen AI
    Layanan AI IBM Consulting

    Layanan IBM Consulting AI membantu merancang ulang cara kerja bisnis dengan AI untuk transformasi.

    Jelajahi layanan kecerdasan buatan
    Ambil langkah selanjutnya

    Baik Anda memilih untuk menyesuaikan aplikasi dan keterampilan yang dibangun sebelumnya atau membangun dan menerapkan layanan agen khusus menggunakan studio AI, platform IBM watsonx siap membantu Anda.

    Menjelajahi watsonx Orchestrate Jelajahi watsonx.ai
    Catatan kaki

    1 Pengantar—Model Context Protocol https://modelcontextprotocol.io/introduction, 2025
    2 Hou, X., Zhao, Y., Wang, S., & Wang, H., Model context protocol (MCP): Landscape, security threats and future research directions. arXiv preprint arXiv: 2503.23278, 2025
    3 Se, K., #14: Apa itu MCP dan mengapa semua orang—tiba-tiba!—membicarakannya? Huggingface.cohttps://huggingface.co/blog/Kseniase/mcp, 17 Maret 2025
    4 Ray, P., A survey on Model Context Protocol: Architecture, state-of-the-art, challenges and future directions. TechRxiv, 18 April 2025
    5 Sumber daya—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/resources, 2025
    6 Alat—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/tools, 2025
    7 Prompt—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/prompts, 2025
    8 Kelompok Kerja JSON-RPC—Spesifikasi JSON-RPC 2.0. Jsonrpc.orghttps://www.jsonrpc.org/specification, 26 Maret 2025
    9 Pengiriman—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/transports, 2025
    10 Singh, A., Ehtesham, A., Kumar, S., and Khoei, T. T., A survey of the Model Context Protocol (MCP): Standardizing context to enhance large language models (LLMs) Preprints, https://doi.org/10.20944/preprints202504.0245.v1, 2025