O que é o Model Context Protocol (MCP)?

Autor

Anna Gutowska

AI Engineer, Developer Advocate

IBM

O Model Context Protocol (MCP) serve como uma camada de padronização para as aplicações de IA se comunicarem de forma eficaz com serviços externos, como ferramentas, bancos de dados e modelos predefinidos.

Você já tentou construir um sistema multiagentes, mas teve dificuldades para produzir uma disseminação eficaz de informações entre cada agente especializado? A variedade de ferramentas criadas previamente e personalizadas fornecidas ao seu agente de IA está causando erros na execução da ferramenta ou na análise das saídas? Ou talvez essas complicações tenham desencorajado você a tentar desenvolver seus próprios agentes?

Esses impedimentos podem ser remediados com o Model Context Protocol (MCP). O MCP permite que os agentes de IA estejam cientes do contexto enquanto cumprem um protocolo padronizado para integração de ferramentas.

Um agente de IA é um sistema ou programa capaz de realizar tarefas de forma autônoma em nome de um usuário ou de outro sistema. Isso é feito projetando seu fluxo de trabalho e utilizando as ferramentas disponíveis. Os sistemas multiagentes consistem em vários agentes de IA trabalhando coletivamente para realizar tarefas em nome de um usuário ou de outro sistema.

Você pode pensar no MCP para aplicações de IA para servir à mesma finalidade que uma porta USB-C serve para hardware.1 Essa analogia destaca a adaptabilidade que as portas USB-C oferecem para conectar hardware em comparação com a maneira padronizada em que várias ferramentas e fontes de dados fornecem contexto aos modelos de IA por meio do MCP.

As ferramentas dão significado

Os grandes modelos de linguagem (LLMs), como o Granite, Gemini e Llama, têm recursos limitados quando implementados de forma independente. Sem ferramentas de IA, os LLMs são qualificados em várias áreas, incluindo:

  • Previsão de texto subsequente: solicitar que um LLM complete uma frase como "Jack e Jill subiram a..." resulta em uma previsão correta de "Jack e Jill subiram a colina." Esse prompt e respostas são um exemplo de previsão de texto subsequente e funcionam melhor no texto no qual o modelo foi treinado.
  • Perguntas e respostas básicas: como um LLM por si só não pode acessar bancos de dados externos ou pesquisas na web, ele pode responder a perguntas de linguagem natural relacionadas às informações nos dados usados para treinar o modelo. Um exemplo pode ser "Fale-me sobre o tratado de Versalhes" porque essas informações sobre uma grande guerra mundial provavelmente estão incluídas nos dados de treinamento de modelos de uso geral. Os LLMs geralmente realizam essa geração de texto na forma de um chatbot.
  • Análise de sentimento: os LLMs podem processar texto e determinar se ele expressa um sentimento positivo, negativo ou neutro.
  • Tradução de idiomas: os LLMs podem traduzir textos em vários idiomas e regiões geográficas. No entanto, nem todo LLM é treinado com dados de mais de um idioma.

Além das funções básicas, um LLM sem acesso a ferramentas externas não pode executar com sucesso qualquer consulta de usuário que exija acesso a informações em tempo real. Para fornecer aos LLMs a oportunidade de produzir resultados mais significativos, a integração de ferramentas pode ser introduzida. Fornecer ferramentas externas, como pesquisas na web, conjuntos de dados e APIs, permite que o LLM expanda seus recursos além de seus dados de treinamento.

Para levar isso um passo adiante, podemos criar agentes de IA usando um LLM e suas ferramentas disponíveis. Resumindo, os sistemas agênticos fornecem ao LLM um conjunto de ferramentas, permitindo que o modelo determine o uso apropriado da ferramenta, se adapte a um ambiente em mudança e forme conclusões sintetizadas com base na saída da ferramenta. No entanto, em escala, esses sistemas de IA tendem a falhar. Por isso, o MCP, lançado pela Anthropic em 2024, estabelece um padrão aberto para as interações entre IA e ferramentas.2

As mais recentes tendências em IA, trazidas a você por especialistas

Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.

Agradecemos a você! Você se inscreveu.

Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

O MCP estabelece um padrão

É complicado conectar serviços externos a um LLM. Imagine um circuito elétrico conectando um motor a várias fontes de energia. O MCP é como a fiação e o quadro de distribuição desse circuito; ela decide qual corrente elétrica (informações) flui para o motor (modelo de IA). A saída da ferramenta ou o contexto do modelo pode ser comparado à corrente de entrada — é a tensão que flui de uma fonte de energia e pode incluir memória, ferramentas e descobertas anteriores.

Como o painel de controle, o MCP decide quais fontes de energia (saída da ferramenta ou contexto) conectar e quando fazer isso, regula a corrente (fluxo de informações), filtra e prioriza as entradas. Ele faz isso para garantir que apenas os fios relevantes sejam energizados (o contexto relevante é carregado) e gerencia a temporização e o roteamento do circuito para não sobrecarregar o sistema.

Assim como um circuito bem projetado evita sobrecarga e garante o uso eficiente de energia, o MCP serve como um conector para facilitar o uso eficiente, relevante e estruturado do contexto para o desempenho ideal dos modelos de IA.

O MCP estabelece um novo padrão de código aberto para os engenheiros de IA concordarem. No entanto, os padrões não são um conceito novo no setor de software. Por exemplo, as APIs REST são padrão do setor, oferecendo troca de dados consistente entre aplicações por meio de solicitações HTTP alinhadas aos princípios de design REST.

Da mesma forma, o MCP unifica o LLM e os serviços externos para se comunicar de forma eficiente, estabelecendo um padrão. Esse padrão permite o uso de ferramentas "plug-and-play" em vez de escrever código para integração personalizada de cada ferramenta.

O MCP não é um framework de agentes, mas uma camada de integração padronizada para agentes que acessam ferramentas. Ele complementa os frameworks de orquestração de agentes. O MCP pode complementar frameworks de orquestração de agentes, como o LangChain, LangGraph, BeeAI, LlamaIndex e CrewAI, mas não os substitui; O MCP não decide quando uma ferramenta é chamada e com que propósito.

O MCP simplesmente fornece uma conexão padronizada para aperfeiçoar a integração de ferramentas.3 No final das contas, o LLM determina quais ferramentas chamar com base no contexto da solicitação do usuário.

Agentes de IA

Cinco tipos de agentes de IA: funções autônomas e aplicações no mundo real

Saiba como a IA orientada por objetivos e baseada em utilidade se adapta a fluxos de trabalho e ambientes complexos.

Arquitetura do MCP

O modelo cliente/servidor MCP pode ser dividido em três componentes arquitetônicos principais:

Host do MCP

Uma aplicação de IA recebe as solicitações do usuário e busca acesso ao contexto por meio do MCP. Essa camada de integração pode incluir IDEs como Cursor ou Claude Desktop. Ela contém a lógica de orquestração e pode conectar cada cliente a um servidor. Ela contém a lógica de orquestração e pode conectar cada cliente a um servidor.4

Cliente do MCP

A comunicação no ecossistema MCP entre o host e o servidor deve passar por um cliente. Esse cliente existe dentro do host e converte as solicitações do usuário em um formato estruturado que o protocolo aberto pode processar. É possível haver vários clientes com um único host MCP, mas cada cliente tem uma relação individual com um servidor MCP.

Exemplos de clientes MCP são IBM, Microsoft Copilot Studio, Claude.IA, Windsurf Editor and Postman. Os clientes atuam como administradores de sessão, lidando com interrupções, tempos limite, reconexões e fechamentos de sessão. Os clientes também analisam as respostas, realizam o tratamento de erros e verificam se as respostas são relevantes ao contexto e apropriadas.4

Servidor do MCP

O serviço externo que fornece o contexto ao LLM convertendo solicitações de usuário em ações de servidores. Exemplos de integrações de servidores MCP incluem Slack, GitHub, Git, Docker ou pesquisa na web. Esses servidores normalmente são repositórios do GitHub, disponíveis em várias linguagens de programação (C#, Java™, TypeScript, Python e outras), e fornecem acesso às ferramentas MCP.

Normalmente, os tutoriais podem ser encontrados nesses repositórios do GitHub para ajudar na implementação técnica. Os servidores do MCP também podem ser usados para conectar a inferência de LLMs, por meio de provedores de plataformas de IA, como IBM e OpenAI, ao SDK MCP. Ao fazer isso, um serviço do MCP reutilizável é criado para os clientes acessarem como uma ferramenta de chat "padronizada".

Os servidores do MCP são versáteis, pois permitem conexões com recursos e ferramentas internos e externos. De acordo com os documentos fornecidos pela Anthropic, os servidores do Model Context Protocol expõem os dados por meio de:

  • Recursos: recuperação de informações de bancos de dados internos ou externos. Recursos retornam dados, mas não executam computações praticáveis.5
  • Ferramentas: troca de informações com ferramentas que podem executar um efeito colateral, como cálculos, ou buscar dados por meio de uma solicitação de API.6
  • Prompts: modelos e fluxos de trabalho reutilizáveis para comunicação LLM-servidor.7

A camada de transporte entre clientes e servidores é responsável pela conversão de mensagens bidirecionais. No fluxo de cliente para servidor, as mensagens do protocolo MCP são convertidas para o formato JSON-RPC, permitindo o transporte de várias estruturas de dados e suas regras de processamento.8

No fluxo inverso, de servidor para cliente, as mensagens recebidas no formato JSON-RPC são convertidas novamente em mensagens do protocolo MCP.9 Os três tipos de mensagens JSON-RPC incluem solicitações, respostas e notificações. As solicitações exigem uma resposta do servidor, enquanto as notificações não.

Arquitetura do Model Context Protocol (MCP) Arquitetura do Model Context Protocol (MCP)

Na camada de transporte entre clientes e servidores, existem dois métodos de transporte principais para o protocolo MCP, sendo que ambos transmitem mensagens no formato JSON-RPC 2.0. O primeiro é a entrada/saída padrão (stdio), que funciona melhor para integrar recursos locais devido à simples transmissão de informações de entrada/saída. Esse formato é usado para mensagens leves e síncronas.4 Esses recursos incluem sistemas de arquivos locais, bancos de dados e APIs locais.

O segundo são os eventos enviados pelo servidor (SSE), que funcionam melhor na integração de recursos remotos. As solicitações HTTP POST servem como mecanismo para transmitir mensagens de cliente para servidor, e o SSE é usado para o contrário. Esse formato pode ser usado para lidar com várias chamadas assíncronas do servidor voltadas para eventos de uma só vez.4

Benefícios do MCP

Imagine uma IA do mundo real que escaneie sua caixa de entrada para agendar reuniões com clientes, envie atualizações de estoque e envie resumos de mensagens de texto da atividade da última hora do Slack. Cada provedor de serviços constrói suas APIs de maneira diferente, exigindo que informações diferentes passem, retornando esquemas de saída diferentes. Assim, a menor mudança nessas ferramentas pode resultar no colapso de toda a infraestrutura de fluxos de trabalho de IA.

Há também uma carga de desenvolvimento significativa sobre os engenheiros para construir manualmente essas conexões de ferramentas, depurar e manter a autenticação como chaves de API e permissões de ferramentas. As ferramentas geralmente dependem da saída de outras ferramentas, e existem muitos casos extremos em que essas conexões falham.

Portanto, é crítico fornecer a integração do MCP como a camada intermediária entre o LLM e as ferramentas de desenvolvimento. Nessa camada, o MCP pode converter a saída da ferramenta de uma forma que seja compreensível para o modelo. Sem a necessidade de alternar entre CLIs, a integração de ferramentas ocorre em um só lugar.

Existem muitos casos de uso do mundo real para o MCP. Por exemplo, o MCP aprimora a orquestração e a comunicação multiagentes por meio de um espaço de trabalho compartilhado com ferramentas comuns, eliminando a necessidade de integrações diretas.3

O MCP também pode ser usado para complementar a geração aumentada de recuperação (RAG) . Em vez de fornecer o recuperador para pesquisar um armazenamento de vetores ou uma base de conhecimento, o MCP pode se conectar a um banco de dados de vetores por meio de uma ação do servidor. Pesquisar o banco de dados como uma ferramenta, em vez de passar pelo recuperador em cada invocação de LLM, permite um uso mais estratégico da ferramenta. Essa abordagem também permite a chamada de ferramentas adicionais na recuperação de dados.3

O futuro do MCP

O MCP representa uma abordagem em evolução para a integração de ferramentas de LLM que continua amadurecendo e remodelando o espaço ao longo do tempo. À medida que surgem desafios técnicos e os servidores MCP evoluem, o padrão se adapta e os MCPs continuam melhorando.

Independentemente disso, a necessidade de integração de ferramentas é crítica para que os agentes de IA operem de forma autônoma e se adaptem dinamicamente aos ambientes do mundo real.10 Com o MCP, podemos simplificar a automação de fluxos de trabalho agênticos complexos, para permitir uma supervisão menos humana. Por sua vez, essa mudança possibilitada pelo MCP permite que nosso tempo seja gasto em tarefas mais sutis, que exigem intelecto e intuição humanos. 

Soluções relacionadas
Agentes de IA para empresas

Crie, implemente e gerencie assistentes e agentes de IA potentes que automatizam fluxos de trabalho e processos com a IA generativa.

    Explore o watsonx Orchestrate
    Soluções de agentes de IA da IBM

    Construa o futuro do seu negócio com soluções de IA em que você pode confiar.

    Explore soluções de agentes de IA
    Serviços de IA do IBM® Consulting

    Os serviços de IA da IBM Consulting ajudam a reinventar a forma como as empresas trabalham com IA para gerar transformação.

    Explore os serviços de inteligência artificial
    Dê o próximo passo

    Se você optar por personalizar aplicativos e habilidades criados previamente ou criar e implementar serviços agênticos personalizados usando um estúdio de IA, a plataforma IBM watsonx tem aquilo de que você precisa.

    Explore o watsonx Orchestrate Explore o watsonx.ai
    Notas de rodapé

    1 Introduction—Model Context Protocol https://modelcontextprotocol.io/introduction, 2025
    2 Hou, X., Zhao, Y., Wang, S., & Wang, H., Model context protocol (MCP): Landscape, security threats and future research directions. arXiv preprint arXiv: 2503.23278, 2025
    3 Se, K., #14: What is MCP and why is everyone—suddenly!—talking about it? Huggingface.cohttps://huggingface.co/blog/Kseniase/mcp, 17 de março de 2025
    4 Ray, P., A survey on Model Context Protocol: Architecture, state-of-the-art, challenges and future directions. TechRxiv, 18 de abril de 2025
    5 Resources—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/resources, 2025
    6 Tools—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/tools, 2025
    7 Prompts—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/prompts, 2025
    8 JSON-RPC Working Group—JSON-RPC 2.0 specification. Jsonrpc.orghttps://www.jsonrpc.org/specification, 26 de março de 2025
    9 Transports—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/transports, 2025
    10 Singh, A., Ehtesham, A., Kumar, S., and Khoei, T. T., A survey of the Model Context Protocol (MCP): Standardizing context to enhance large language models (LLMs) Preprints, https://doi.org/10.20944/preprints202504.0245.v1, 2025