¿Qué es el Protocolo de contexto del modelo (MCP)?

Autor

Anna Gutowska

AI Engineer, Developer Advocate

IBM

El protocolo de contexto del modelo (MCP) sirve como capa de estandarización para que las aplicaciones de IA se comuniquen de manera efectiva con servicios externos, como herramientas, bases de datos y plantillas predefinidas.

¿Alguna vez ha intentado crear un sistema multiagente, pero ha tenido dificultades para producir una difusión eficaz de la información entre cada agente especializado? ¿La variedad de herramientas prediseñadas y personalizadas proporcionadas a su agente de IA está causando errores de ejecución de herramientas o de análisis de resultados? ¿O tal vez estas complicaciones lo han desanimado por completo de intentar desarrollar sus propios agentes?

Estos impedimentos pueden remediar con el Protocolo de contexto del modelo (MCP). El MCP permite que los agentes de IA sean conscientes del contexto mientras cumplen con un protocolo estandarizado para la integración de herramientas.

Un agente de IA es un sistema o programa capaz de realizar tareas de forma autónoma en nombre de un usuario o de otro sistema. Las hace diseñando su flujo de trabajo y utilizando las herramientas disponibles. Los sistemas multiagente constan de múltiples agentes de IA que trabajan colectivamente para realizar tareas en nombre de un usuario u otro sistema.

Puede pensar en MCP para aplicaciones de IA con el mismo propósito que un puerto USB-C sirve para hardware.1 Esta analogía destaca la adaptabilidad que proporcionan los puertos USB-C para conectar el hardware en comparación con la forma estandarizada en que varias herramientas y fuentes de datos proporcionan contexto a los modelos de IA a través de un MCP.

Las herramientas proporcionan significado

Los modelos de lenguaje de gran tamaño (LLM) como Granite, Gemini y Llama tienen capacidades limitadas cuando se despliegan por sí solos. Sin ninguna herramienta de IA, los LLM están capacitados en varias áreas, entre ellas:

  • Predicción de texto posterior: pedir a un LLM que complete una oración como "Juanito clavó un..." da como resultado una predicción correcta de "Juanito clavó un clavito". Esta instrucción y las respuestas son un ejemplo de predicción de texto posterior y funcionan mejor en el texto en el que se entrenó el modelo.
  • Preguntas y respuestas básicas: dado que un LLM por sí solo no puede acceder a bases de datos externas o búsquedas web, puede responder preguntas en lenguaje natural relacionadas con la información de los datos utilizados para entrenar el modelo. Un ejemplo puede ser "Háblame del Tratado de Versalles", porque esta información sobre una gran guerra mundial probablemente se incluya en los datos de entrenamiento de los modelos de propósito general. Por lo general, los LLM realizan esta generación de texto en forma de chatbot.
  • Análisis de sentimientos: los LLM pueden procesar texto y determinar si expresa un sentimiento positivo, negativo o neutral.
  • Traducción de idiomas: los LLM pueden traducir textos a distintos idiomas y ubicaciones geográficas. Sin embargo, no todos los LLM se entrenan con datos de más de un idioma.

Además de las funciones básicas, un LLM sin acceso a herramientas externas no puede ejecutar con éxito ninguna consulta de usuario que requiera acceso a información en tiempo real. Para proporcionar a los LLM la oportunidad de producir resultados más significativos, se puede introducir la integración de herramientas. Proporcionar herramientas externas, como búsquedas web, conjuntos de datos y API, permite al LLM ampliar sus capacidades más allá de sus datos de entrenamiento.

Para ir un paso más allá, podemos crear agentes de IA mediante un LLM y sus herramientas disponibles. En resumen, los sistemas agénticos proporcionan a un LLM un conjunto de herramientas, lo que permite que el modelo determine el uso adecuado de éstas, se adapte a un entorno cambiante y forme conclusiones sintetizadas basadas en los resultados de las herramientas. Sin embargo, a escala, estos sistemas de IA tienden a fallar. Por lo tanto, MCP, presentado por Anthropic en 2024, establece un estándar abierto para las interacciones entre la IA y las herramientas.2

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

El MCP establece un estándar

Es engorroso conectar servicios externos a un LLM. Imagine un circuito eléctrico que conecta un motor a varias fuentes de energía. El MCP es como el cableado y el panel de distribución de este circuito; decide qué corriente eléctrica (información) fluye hacia el motor (modelo de IA). La resultados de la herramienta o el contexto del modelo se pueden comparar con la entrada actual: es el voltaje que fluye desde una fuente de energía y puede incluir memoria, herramientas y hallazgos anteriores.

Al igual que la centralita, el MCP decide qué fuentes de energía (resultados o contexto) conectar y cuándo hacerlo, regula la corriente (flujo de información), filtra y prioriza las entradas. Lo hace para garantizar que solo se energicen los cables relevantes (se carga el contexto relevante) y gestiona la temporización y el enrutamiento del circuito para no sobrecargar el sistema.

Así como un circuito bien diseñado evita la sobrecarga y garantiza un uso eficiente de energía, un MCP sirve como conector para facilitar el uso eficiente, relevante y estructurado del contexto para el rendimiento óptimo de los modelos de IA.

El MCP establece un nuevo estándar de código abierto sobre el que los ingenieros de IA pueden ponerse de acuerdo. Sin embargo, los estándares no son un concepto nuevo en la industria del software. Por ejemplo, las API REST son un estándar de la industria y ofrecen un intercambio de datos coherente entre aplicaciones a través de solicitudes HTTP alineadas con los principios de diseño REST.

Del mismo modo, un MCP unifica el LLM y los servicios externos para comunicarse de manera eficiente mediante el establecimiento de un estándar. Este estándar permite el uso de herramientas listas para usar en lugar de escribir código para la integración personalizada de cada herramienta.

Un MCP no es un marco de agente, sino una capa de integración estandarizada para que los agentes accedan a las herramientas. Complementa los marcos de orquestación de agentes. Un MCP puede complementar los marcos de orquestación de agentes como LangChain, LangGraph, BeeAI, LlamaIndex y CrewAI, pero no los reemplaza; un MCP no decide cuándo se llama a una herramienta y con qué propósito.

Un MCP simplemente proporciona una conexión estandarizada para agilizar la integración de herramientas.3 En última instancia, el LLM determina a qué herramientas llamar en función del contexto de la solicitud del usuario.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones reales

Descubra cómo la IA orientada a objetivos y basada en utilidades se adapta a los flujos de trabajo y entornos complejos.

Arquitectura del MCP

El modelo cliente/servidor MCP se puede dividir en tres componentes arquitectónicos clave:

Anfitrión MCP

Una aplicación de IA recibe las solicitudes del usuario y busca acceso al contexto a través del MCP. Esta capa de integración puede incluir algún IDE, como Cursor o Claude Desktop. Contiene la lógica de orquestación y puede conectar cada cliente a un servidor. Contiene la lógica de orquestación y puede conectar cada cliente a un servidor.4

Cliente del MCP

La comunicación en el ecosistema MCP entre el host y el servidor debe pasar por un cliente. Este cliente existe dentro del host y convierte las solicitudes de los usuarios en un formato estructurado que el protocolo abierto puede procesar. Pueden existir varios clientes con un único host MCP, pero cada cliente tiene una relación 1:1 con un servidor MCP.

Algunos ejemplos de clientes de MCP son IBM BeeIA, Microsoft Copilot Studio, Claude.ia, Windsurf Editor y Postman. Los clientes actúan como administradores de sesiones al manejar interrupciones, tiempos de espera, reconexiones y cierres de sesiones. Los clientes también analizan las respuestas, realizan el manejo de errores y verifican que las respuestas sean adecuadas y relevantes para el contexto.4

Servidor del MCP

El servicio externo proporciona el contexto al LLM convirtiendo las solicitudes de los usuarios en acciones del servidor. Algunos ejemplos de integraciones de servidores MCP son Slack, GitHub, Git, Docker o la búsqueda web. Estos servidores por lo general son repositorios de GitHub disponibles en distintos lenguajes de programación (C#, Java™, TypeScript, Python y otros) y proporcionan acceso a herramientas del MCP.

Por lo general, se pueden encontrar tutoriales dentro de estos repositorios de GitHub para ayudar en la implementación técnica. Los servidores MCP también se pueden utilizar para conectar la inferencia LLM, a través de proveedores de plataformas de IA como IBM y OpenAI, al SDK del MCP. Al hacerlo, se crea un servicio de MCP reutilizable para que los clientes accedan como una herramienta de chat "estandarizada".

Los servidores de MCP son versátiles, ya que permiten conexiones a recursos y herramientas tanto internos como externos. Según los documentos proporcionados por Anthropic, los servidores del Protocolo de contexto del modelo exponen los datos a través de:

  • Recursos: recuperación de información de bases de datos internas o externas. Los recursos entregan datos, pero no ejecutan cálculos procesables.5
  • Herramientas: intercambio de información con herramientas que pueden realizar un efecto secundario, como un cálculo u obtener datos a través de una solicitud de API.6
  • Instrucciones: plantillas y flujos de trabajo reutilizables para la comunicación entre LLM y el servidor.7

La capa de transporte entre clientes y servidores es responsable de la conversión bidireccional de mensajes. En el flujo de cliente a servidor, los mensajes del protocolo MCP se convierten al formato JSON-RPC, lo que permite el transporte de varias estructuras de datos y sus reglas de procesamiento.8

En el flujo inverso de servidor a cliente, los mensajes recibidos en formato JSON-RPC se convierten nuevamente en mensajes de protocolo MCP.9 Los tres tipos de mensajes JSON-RPC incluyen solicitudes, respuestas y notificaciones. Las solicitudes requieren una respuesta del servidor, mientras que las notificaciones no.

Arquitectura del protocolo de contexto del modelo Arquitectura del protocolo de contexto del modelo

En la capa de transporte entre clientes y servidores, existen dos métodos de transporte principales para el protocolo MCP, los cuales transmiten mensajes en formato JSON-RPC 2.0. La primera es el estándar entrada/resultados (stdio) que funciona mejor para integrar recursos locales debido a la simple transmisión de información de entrada/resultados. Este formato se utiliza para mensajería ligera y sincrónica.4 Dichos recursos incluyen sistemas de archivos locales, bases de datos y API locales.

La segunda son los eventos enviados por el servidor (SSE), que funcionan mejor para integrar recursos remotos. Las solicitudes HTTP POST sirven como mecanismo para transmitir mensajes de cliente a servidor y SSE se utiliza para lo contrario. Este formato se puede utilizar para manejar varias llamadas de servidor asíncronas y basadas en eventos a la vez.4

Beneficios del MCP

Imagine una IA del mundo real que escanea su bandeja de entrada para programar reuniones con clientes, envía actualizaciones de inventario y resúmenes de texto de la actividad en Slack en la última hora. Cada proveedor de servicios construye sus API de manera diferente al requerir que se pase información diferente, entregando diferentes esquemas de salida. Por lo tanto, el más mínimo cambio en estas herramientas puede provocar el colapso de toda esta infraestructura de flujo de trabajo de IA.

También hay una carga de desarrollo significativa en los ingenieros para construir manualmente estas conexiones de herramientas, depurar y mantener la autenticación, como claves API y permisos de herramientas. Las herramientas a menudo dependen del resultado de otras herramientas y existen muchos casos extremos en los que estas conexiones fallan.

Por lo tanto, es crítico proporcionar la integración de MCP como la capa intermedia entre el LLM y las herramientas de desarrollo. En esta capa, el MCP puede convertir la salida de la herramienta de una manera que sea comprensible para el modelo. Sin la necesidad de alternar entre CLI, la integración de la herramienta se produce en un solo lugar.

Hay muchos casos de uso del mundo real para un MCP. Por ejemplo, el MCP mejora la orquestación multiagente y la comunicación a través de un espacio de trabajo compartido con herramientas comunes, eliminando la necesidad de integraciones directas.3

Un MCP también se puede utilizar para complementar la generación aumentada por recuperación (RAG). En lugar de proporcionar el recuperador para buscar en un almacén de vectores o en una base de conocimientos, el MCP puede conectarse a una base de datos vectorial a través de una acción del servidor. Buscar en la base de datos como una herramienta en lugar de pasar el recuperador en cada invocación de LLM permite un uso más estratégico de la herramienta. Este enfoque también permite una mayor llamada a la herramienta en la recuperación de datos.3

El futuro del MCP

El MCP representa un enfoque en evolución para la integración de herramientas LLM que sigue madurando y remodelando el espacio con el tiempo. A medida que surgen desafíos técnicos y los servidores de MCP evolucionan, el estándar se adapta y los MCP continúan mejorando.

Sin embargo, la necesidad de una integración estandarizada es crítica para que los agentes de IA operen de forma autónoma y se adapten dinámicamente a los entornos del mundo real.10 Con el MCP, podemos optimizar la automatización de flujos de trabajo de agentes complejos para permitir una menor supervisión humana. A su vez, este cambio habilitado por el MCP permite dedicar nuestro tiempo a tareas más matizadas que requieren intelecto e intuición humanos. 

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione poderosos asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agentes de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que pueda confiar.

    Explorar las soluciones de agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma en que las empresas trabajan con IA para la transformación.

    Explorar los servicios de inteligencia artificial
    Dé el siguiente paso

    Ya sea que elija personalizar aplicaciones y habilidades predefinidas o crear y desplegar servicios agénticos personalizados utilizando un estudio de IA, la plataforma IBM watsonx responde a sus necesidades.

    Explore watsonx Orchestrate Explore watsonx.ai
    Notas de pie de página

    1 Introduction—Model Context Protocol https://modelcontextprotocol.io/introduction, 2025
    2 Hou, X., Zhao, Y., Wang, S., & Wang, H., Model context protocol (MCP): Landscape, security threats and future research directions. arXiv preprint arXiv: 2503.23278, 2025
    3 Se, K., #14: What is MCP and why is everyone—suddenly!—talking about it? Huggingface.cohttps://huggingface.co/blog/Kseniase/mcp, 17 de marzo de 2025
    4 Ray, P., A survey on Model Context Protocol: Architecture, state-of-the-art, challenges and future directions. TechRxiv, 18 de abril de 2025
    5 Resources—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/resources, 2025
    6 Tools—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/tools, 2025
    7 Prompts—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/prompts, 2025
    8 JSON-RPC Working Group—JSON-RPC 2.0 specification. Jsonrpc.orghttps:\/\/www.jsonrpc.org\/specification, 26 de marzo de 2025
    9 Transports—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/transports, 2025
    10 Singh, A., Ehtesham, A., Kumar, S., y Khoei, TT, Un estudio sobre el Protocolo de contexto de modelo (MCP): estandarización del contexto para mejorar los modelos de lenguaje de gran tamaño (LLM) Preprints, https://doi.org/10.20944/preprints202504.0245.v1, 2025