Es engorroso conectar servicios externos a un LLM. Imagine un circuito eléctrico que conecta un motor a varias fuentes de energía. El MCP es como el cableado y el panel de distribución de este circuito; decide qué corriente eléctrica (información) fluye hacia el motor (modelo de IA). La resultados de la herramienta o el contexto del modelo se pueden comparar con la entrada actual: es el voltaje que fluye desde una fuente de energía y puede incluir memoria, herramientas y hallazgos anteriores.
Al igual que la centralita, el MCP decide qué fuentes de energía (resultados o contexto) conectar y cuándo hacerlo, regula la corriente (flujo de información), filtra y prioriza las entradas. Lo hace para garantizar que solo se energicen los cables relevantes (se carga el contexto relevante) y gestiona la temporización y el enrutamiento del circuito para no sobrecargar el sistema.
Así como un circuito bien diseñado evita la sobrecarga y garantiza un uso eficiente de energía, un MCP sirve como conector para facilitar el uso eficiente, relevante y estructurado del contexto para el rendimiento óptimo de los modelos de IA.
El MCP establece un nuevo estándar de código abierto sobre el que los ingenieros de IA pueden ponerse de acuerdo. Sin embargo, los estándares no son un concepto nuevo en la industria del software. Por ejemplo, las API REST son un estándar de la industria y ofrecen un intercambio de datos coherente entre aplicaciones a través de solicitudes HTTP alineadas con los principios de diseño REST.
Del mismo modo, un MCP unifica el LLM y los servicios externos para comunicarse de manera eficiente mediante el establecimiento de un estándar. Este estándar permite el uso de herramientas listas para usar en lugar de escribir código para la integración personalizada de cada herramienta.
Un MCP no es un marco de agente, sino una capa de integración estandarizada para que los agentes accedan a las herramientas. Complementa los marcos de orquestación de agentes. Un MCP puede complementar los marcos de orquestación de agentes como LangChain, LangGraph, BeeAI, LlamaIndex y CrewAI, pero no los reemplaza; un MCP no decide cuándo se llama a una herramienta y con qué propósito.
Un MCP simplemente proporciona una conexión estandarizada para agilizar la integración de herramientas.3 En última instancia, el LLM determina a qué herramientas llamar en función del contexto de la solicitud del usuario.