¿Qué es el Model Context Protocol (MCP)?

Autor

Anna Gutowska

AI Engineer, Developer Advocate

IBM

El Model Context Protocol (MCP) sirve como capa de estandarización para que las aplicaciones de IA se comuniquen eficazmente con servicios externos como herramientas, bases de datos y plantillas predefinidas.

¿Ha intentado alguna vez crear un sistema multiagente pero ha tenido dificultades para producir una difusión eficaz de la información entre cada agente especializado? ¿La variedad de herramientas predefinidas y personalizadas proporcionadas a su agente de IA está provocando errores en la ejecución de las herramientas o en el análisis de los resultados? ¿O tal vez estas complicaciones le han disuadido de intentar desarrollar sus propios agentes por completo?

Estos impedimentos se pueden remediar con el Model Context Protocol (MCP). MCP permite a los agentes de IA ser conscientes del contexto mientras cumplen con un protocolo estandarizado para la integración de herramientas.

Un agente de IA es un sistema o programa capaz de realizar tareas de forma autónoma en nombre de un usuario u otro sistema. Los realiza diseñando su flujo de trabajo y utilizando las herramientas disponibles. Los sistemas multiagente consisten en varios agentes de IA que trabajan colectivamente para realizar tareas en nombre de un usuario u otro sistema.

Puede pensar en MCP para aplicaciones de IA para servir el mismo propósito que un puerto USB-C sirve para hardware1. Esta analogía destaca la adaptabilidad que proporcionan los puertos USB-C para conectar el hardware en comparación con la forma estandarizada en la que varias herramientas y fuentes de datos proporcionan contexto a los modelos de IA a través de MCP.

Las herramientas proporcionan significado

Los modelos de lenguaje de gran tamaño (LLM) como Granite, Gemini y Llama tienen capacidades limitadas cuando se implementan por sí solos. Sin herramientas de IA, los LLM están capacitados en varias áreas, entre ellas:

  • Predicción de texto posterior: pedir a un LLM que complete una oración como "Jack y Jill subieron la..." da como resultado una predicción correcta de "Jack y Jill subieron la colina". Esta instrucción y las respuestas son un ejemplo de predicción de texto posterior y funcionan mejor en el texto en el que se entrenó el modelo.
  • Preguntas y respuestas básicas: dado que un LLM por sí solo no puede acceder a bases de datos externas o búsquedas web, puede responder preguntas en lenguaje natural relacionadas con la información de los datos utilizados para entrenar el modelo. Un ejemplo puede ser "Hábleme del tratado de Versalles", porque esta información sobre una gran guerra mundial probablemente se incluya en los datos de entrenamiento de los modelos de propósito general. Los LLM suelen realizar esta generación de texto en forma de chatbot.
  • Análisis de sentimientos: los LLM pueden procesar texto y determinar si expresa un sentimiento positivo, negativo o neutral.
  • Traducción de idiomas: los LLM pueden traducir texto entre idiomas y geografías. Sin embargo, no todos los LLM se entrenan con datos de más de un idioma.

Aparte de las funciones básicas, un LLM sin acceso a herramientas externas no puede ejecutar con éxito ninguna consulta de usuario que requiera acceso a información en tiempo real. Para proporcionar a los LLM la oportunidad de producir resultados más significativos, se puede introducir la integración de herramientas. Proporcionar herramientas externas como búsquedas web, conjuntos de datos y API, permite al LLM ampliar sus capacidades más allá de sus datos de entrenamiento.

Para ir un paso más allá, podemos crear agentes de IA utilizando un LLM y sus herramientas disponibles. En resumen, los sistemas agénticos proporcionan a un LLM un conjunto de herramientas, lo que permite al modelo determinar el uso adecuado de las herramientas, adaptarse a un entorno cambiante y formar conclusiones sintetizadas basadas en la output. Sin embargo, a escala, estos sistemas de IA tienden a fallar. Por lo tanto, MCP, introducido por Anthropic en 2024, establece un estándar abierto para las interacciones entre IA y herramientas2.

Las últimas novedades sobre tecnología, respaldadas por conocimientos de expertos

Manténgase al día sobre las tendencias más importantes e intrigantes del sector en materia de IA, automatización, datos y mucho más con el boletín Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Se ha suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

El MCP establece un estándar

Es engorroso conectar servicios externos a un LLM. Imagine un circuito eléctrico que conecta un motor a varias fuentes de energía. MCP es como el cableado y el cuadro de distribución de este circuito; decide qué corriente eléctrica (información) fluye hacia el motor (modelo de IA). La salida de la herramienta o el contexto del modelo se pueden comparar con la corriente de entrada: es la tensión que fluye desde una fuente de alimentación y puede incluir memoria, herramientas y hallazgos anteriores.

Como centralita, MCP decide qué fuentes de energía (salida de la herramienta o contexto) conectar y cuándo hacerlo, regula la corriente (flujo de información), filtra y prioriza las entradas. Lo hace para garantizar que solo se activen los cables relevantes (se carga el contexto relevante) y gestiona la temporización y el enrutamiento del circuito para no sobrecargar el sistema.

Al igual que un circuito bien diseñado evita la sobrecarga y garantiza un uso eficiente de la energía, MCP sirve como conector para facilitar un uso eficiente, relevante y estructurado del contexto para un rendimiento óptimo de los modelos de IA.

MCP establece un nuevo estándar de código abierto para que los ingenieros de IA lo acuerden. Sin embargo, los estándares no son un concepto nuevo en el sector del software. Por ejemplo, las API REST son estándar del sector y ofrecen un intercambio de datos coherente entre aplicaciones a través de solicitudes HTTP alineadas con los principios de diseño REST.

Del mismo modo, MCP unifica el LLM y los servicios externos para comunicarse de manera eficiente mediante el establecimiento de un estándar. Este estándar permite el uso de herramientas "plug-and-play" en lugar de escribir código para la integración personalizada de cada herramienta.

MCP no es un marco de agentes, sino una capa de integración estandarizada para que los agentes accedan a las herramientas. Complementa los marcos de orquestación de agentes. MCP puede complementar marcos de orquestación de agentes como LangChain, LangGraph, BeeAI, LlamaIndex y crewAI, pero no los reemplaza; MCP no decide cuándo se llama a una herramienta y con qué propósito.

MCP simplemente proporciona una conexión estandarizada para agilizar la integración de herramientas3. En última instancia, el LLM determina a qué herramientas llamar en función del contexto de la solicitud del usuario.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones del mundo real

Descubra cómo la IA basada en objetivos y servicios se adapta a flujos de trabajo y entornos complejos.

Arquitectura MCP

El modelo cliente/servidor MCP se puede dividir en tres componentes arquitectónicos clave:

Host MCP

Una aplicación de IA recibe las solicitudes de los usuarios y busca acceso al contexto a través del MCP. Esta capa de integración puede incluir IDE como Cursor o Claude Desktop. Contiene la lógica de orquestación y puede conectar cada cliente a un servidor. Contiene la lógica de orquestación y puede conectar cada cliente a un servidor4.

Cliente MCP

La comunicación en el ecosistema MCP entre el host y el servidor debe pasar por un cliente. Este cliente existe dentro del host y convierte las solicitudes de los usuarios en un formato estructurado que el protocolo abierto puede procesar. Pueden existir varios clientes con un único host MCP, pero cada cliente tiene una relación individual con un servidor MCP.

Algunos ejemplos de clientes de MCP son IBM® BeeIA, Microsoft Copilot Studio, Claude.ia, Windsurf Editor y Postman. Los clientes actúan como gestores de sesiones gestionando las interrupciones, los tiempos de espera, las reconexiones y los cierres de sesiones. Los clientes también analizan las respuestas, gestionan los errores y verifican que las respuestas sean relevantes para el contexto y adecuadas4.

Servidor MCP

El servicio externo que proporciona el contexto al LLM convirtiendo las solicitudes de los usuarios en acciones del servidor. Algunos ejemplos de integraciones de servidores MCP son Slack, GitHub, Git, Docker o la búsqueda web. Estos servidores suelen ser repositorios de GitHub disponibles en varios lenguajes de programación (C#, Java, TypeScript, Python y otros) y proporcionan acceso a herramientas MCP.

Normalmente se pueden encontrar tutoriales en estos repositorios de GitHub para ayudar en la implementación técnica. Los servidores MCP también se pueden utilizar para conectar la inferencia LLM, a través de proveedores de plataformas de IA como IBM y OpenAI, al SDK de MCP. Al hacerlo, se crea un servicio MCP reutilizable para que los clientes accedan como una herramienta de chat "estandarizada".

Los servidores MCP son versátiles, ya que permiten conexiones a recursos y herramientas tanto internos como externos. Según los documentos proporcionados por Anthropic, los servidores de Model Context Protocol exponen los datos a través de:

  • Recursos: recuperación de información de bases de datos internas o externas. Los recursos devuelven datos pero no ejecutan cálculos que se pueden ejecutar5.
  • Herramientas: intercambio de información con herramientas que pueden realizar un efecto secundario, como un cálculo o obtener datos a través de una solicitud de API6.
  • Instrucciones: instrucciones y flujos de trabajo reutilizables para la comunicación LLM-servidor7.

La capa de transporte entre clientes y servidores es responsable de la conversión bidireccional de mensajes. En el flujo de cliente a servidor, los mensajes del protocolo MCP se convierten al formato JSON-RPC, lo que permite el transporte de varias estructuras de datos y sus reglas de procesamiento8.

En el flujo inverso de servidor a cliente, los mensajes recibidos en formato JSON-RPC se convierten de nuevo en mensajes de protocolo MCP9. Los tres tipos de mensajes JSON-RPC incluyen solicitudes, respuestas y notificaciones. Las solicitudes requieren una respuesta del servidor, mientras que las notificaciones no.

Arquitectura del Model Context Protocol Arquitectura del Model Context Protocol

En la capa de transporte entre clientes y servidores, existen dos métodos de transporte principales para el protocolo MCP, los cuales transmiten mensajes en formato JSON-RPC 2.0. El primero es la entrada/salida estándar (stdio), que funciona mejor para integrar recursos locales debido a la sencilla transmisión de información de entrada/salida. Este formato se utiliza para mensajería ligera y síncrona4. Dichos recursos incluyen sistemas de archivos locales, bases de datos y API locales.

El segundo son los eventos enviados por el servidor (SSE), que funcionan mejor para integrar recursos remotos. Las solicitudes HTTP POST sirven como mecanismo para transmitir mensajes de cliente a servidor y SSE se utiliza para lo contrario. Este formato se puede utilizar para gestionar varias llamadas de servidor asíncronas y basadas en eventos a la vez4.

Beneficios del MCP

Imagine una IA del mundo real que escanea su bandeja de entrada para programar reuniones con clientes, envía actualizaciones de existencias y envía resúmenes de texto de la actividad de Slack de la última hora. Cada proveedor de servicios construye sus API de manera diferente al requerir información diferente para pasar, devolviendo diferentes resultados. Por lo tanto, el más mínimo cambio en estas herramientas puede provocar el colapso de toda esta infraestructura de flujo de trabajo de IA.

También hay una carga de desarrollo significativa en los ingenieros para construir manualmente estas conexiones de herramientas, depurar y mantener la autenticación, como las claves API y los permisos de las herramientas. Las herramientas suelen depender del resultado de otras herramientas y existen muchos casos extremos en los que estas conexiones fallan.

Por lo tanto, es crítico proporcionar la integración de MCP como capa intermedia entre el LLM y las herramientas de desarrollo. En esta capa, el MCP puede convertir el output de la herramienta de una manera comprensible para el modelo. Sin la necesidad de alternar entre CLI, la integración de la herramienta se produce todo en uno.

Hay muchos casos de uso reales para MCP. Por ejemplo, MCP mejora la orquestación y comunicación multiagente a través de un espacio de trabajo compartido con herramientas comunes, eliminando la necesidad de integraciones directas3.

MCP también se puede utilizar para complementar la generación aumentada por recuperación (RAG). En lugar de proporcionar el recuperador para buscar en un almacén de vectores o en una base de conocimientos, MCP puede conectarse a una base de datos vectorial a través de una acción del servidor. Buscar en la base de datos como herramienta en lugar de pasar el recuperador en cada invocación de LLM permite un uso más estratégico de la herramienta. Este enfoque también permite una mayor llamada de herramientas en la recuperación de datos3.

El futuro del MCP

MCP representa un enfoque evolutivo para la integración de herramientas LLM que continúan madurando y remodelando el espacio a lo largo del tiempo. A medida que surgen desafíos técnicos y los servidores MCP evolucionan, el estándar se adapta y los MCP continúan mejorando.

En cualquier caso, la necesidad de integrar herramientas es crítica para que los agentes de IA operen de forma autónoma y se adapten dinámicamente a los entornos del mundo real10. Con MCP, podemos agilizar la automatización de flujos de trabajo agénticos complejos para permitir una menor supervisión humana. A su vez, este cambio habilitado por MCP permite dedicar nuestro tiempo a tareas más matizadas que requieren intelecto e intuición humanos. 

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione potentes asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agente de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que puede confiar.

    Explore las soluciones de los agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.

    Explore los servicios de inteligencia artificial
    Dé el siguiente paso

    Tanto si opta por personalizar las aplicaciones y habilidades prediseñadas como si prefiere crear e implementar servicios agentivos personalizados mediante un estudio de IA, la plataforma IBM watsonx le ofrece todo lo que necesita.

    Explore watsonx Orchestrate Explore watsonx.ai
    Notas a pie de página

    1 Introduction—Model Context Protocol https://modelcontextprotocol.io/introduction. 2025.
    2 Hou, X., Zhao, Y., Wang, S., & Wang, H. Model context protocol (MCP): Landscape, security threats and future research directions. Preimpresión de arXiv. 2503.23278. 2025.
    3 Se, K., #14: What is MCP and why is everyone—suddenly!—talking about it? Huggingface.cohttps://huggingface.co/blog/Kseniase/mcp. 17 de marzo de 2025.
    4 Ray, P., A survey on Model Context Protocol: Architecture, state-of-the-art, challenges and future directions. TechRxiv. 18 de abril de 2025.
    5 Resources—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/resources, 2025
    6 Tools—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/tools. 2025.
    7 Prompts—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/prompts. 2025.
    8 JSON-RPC Working Group—JSON-RPC 2.0 specification. Jsonrpc.orghttps://www.jsonrpc.org/specification. 26 de marzo de 2025.
    9 Transports—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/transports. 2025
    10 Singh, A., Ehtesham, A., Kumar, S., and Khoei, T. T. A survey of the Model Context Protocol (MCP): Standardizing context to enhance large language models (LLMs) Preprints. https://doi.org/10.20944/preprints202504.0245.v1, 2025.