Was ist Model Context Protocol (MCP)?

Autor

Anna Gutowska

AI Engineer, Developer Advocate

IBM

Das Model Context Protocol (MCP) dient als Standardisierungsschicht für KI-Anwendung, um effektiv mit externen Diensten wie Tools, Datenbanken und vordefinierten Templates zu kommunizieren.

Haben Sie jemals versucht, ein Multiagentensystem aufzubauen, hatten aber Schwierigkeiten, eine effektive Informationsverbreitung zwischen den einzelnen spezialisierten Agenten zu erreichen? Verursacht die Vielzahl der vorgefertigten und benutzerdefinierten Tools, die Ihrem KI-Agenten zur Verfügung gestellt werden, entweder Fehler bei der Toolausführung oder beim Parsen der Ausgabe? Oder haben diese Komplikationen Sie vielleicht davon abgehalten, Ihre eigenen Agenten zu entwickeln?

Diese Hindernisse können mit dem Model Context Protocol (MCP) behoben werden. MCP ermöglicht es KI-Agenten, kontextbewusst zu sein und gleichzeitig ein standardisiertes Protokoll für die Toolintegration einzuhalten.

Ein KI-Agent ist ein System oder Programm, das in der Lage ist, selbstständig Aufgaben im Namen eines Benutzers oder eines anderen Systems auszuführen. Er führt diese aus, indem er seinen Workflow gestaltet und die verfügbaren Tools nutzt. Multiagentensysteme bestehen aus mehreren KI-Agenten, die gemeinsam daran arbeiten, Aufgaben im Namen eines Benutzers oder eines anderen Systems auszuführen.

Sie können sich MCP für KI-Anwendungen als Äquivalent zu einem USB-C-Anschluss für Hardware vorstellen.1 Diese Analogie unterstreicht die Anpassungsfähigkeit, die USB-C-Anschlüsse für den Anschluss von Hardware bieten, und vergleicht sie mit der standardisierten Art und Weise, wie verschiedene Tools und Datenquellen über MCP den Kontext für KI-Modelle bereitstellen.

Tools geben Bedeutung

Große Sprachmodelle (LLMs) wie Granite, Gemini und Llama sind in ihren Möglichkeiten eingeschränkt, wenn sie allein bereitgestellt werden. Ohne jegliche KI-Tools verfügen LLMs über verschiedene Fähigkeiten, darunter:

  • Textvorhersage: Wenn Sie ein LLM auffordern, einen Satz wie „Jack und Jill bestiegen den ...“ zu vervollständigen, erhalten Sie eine korrekte Vorhersage: „Jack und Jill bestiegen den Berg“. Ein solcher Prompt und die Antwort darauf ist ein Beispiel für eine Textvorhersage und funktioniert am besten bei Text, mit dem das Modell trainiert wurde.
  • Grundlegende Fragen und Antworten: Da ein LLM allein nicht auf externe Datenbanken oder Websuchen zugreifen kann, kann es Fragen in natürlicher Sprache beantworten, die sich auf Informationen in den Daten beziehen, die zum Trainieren des Modells verwendet werden. Ein Beispiel kann "Erzähl mir etwas über den Vertrag von Versailles" sein, da diese Informationen über einen großen Weltkrieg höchstwahrscheinlich in den Trainingsdaten von Allzweckmodellen enthalten sind. LLMs führen diese Textgenerierung oft in Form eines Chatbots durch.
  • Stimmungsanalyse: LLMs können Text verarbeiten und feststellen, ob er eine positive, negative oder neutrale Stimmung ausdrückt.
  • Sprachübersetzung: LLMs können Texte in verschiedene Sprachen und für unterschiedliche Regionen übersetzen. Allerdings wird nicht jedes LLM mit Daten aus mehr als einer Sprache trainiert.

Abgesehen von den Grundfunktionen kann ein LLM ohne Zugang zu externen Tools keine Benutzerabfrage erfolgreich ausführen, die den Zugriff auf Echtzeitinformationen erfordert. Um LLMs die Möglichkeit zu geben, aussagekräftigere Ergebnisse zu erzielen, kann die Integration von Tools eingeführt werden. Die Bereitstellung externer Tools wie Internetsuchen, Datensätze und APIs ermöglicht es dem LLM, seine Funktionen über seine Trainingsdaten hinaus zu erweitern.

Um noch einen Schritt weiter zu gehen, können wir KI-Agenten erstellen, indem wir ein LLM und die darin verfügbaren Tools verwenden. Zusammenfassend lässt sich sagen, dass agentische Systeme einem LLM eine Reihe von Tools bereitstellen, die es dem Modell ermöglichen, den geeigneten Einsatz der Tools zu bestimmen, sich an eine sich ändernde Umgebung anzupassen und basierend auf der Tool-Ausgabe synthetisierte Schlussfolgerungen zu ziehen. In großem Maßstab neigen diese KI-Systeme jedoch dazu, zu versagen. Daher etabliert MCP, das von Anthropic im Jahr 2024 eingeführt wurde, einen offenen Standard für die Interaktionen zwischen KI-Tools.2

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

MCP etabliert einen Standard

Es ist umständlich, externe Dienste mit einem LLM zu verbinden. Stellen Sie sich einen Stromkreis vor, der einen Motor mit verschiedenen Stromquellen verbindet. Ein MCP ist im Grunde wie die Verkabelung und die Schalttafel dieses Schaltkreises: Es entscheidet, welcher Strom (Informationen) zum Motor (KI-Modell) fließt. Die Tool-Ausgabe oder der Modellkontext können mit dem Eingangsstrom verglichen werden – es handelt sich um die Spannung, die von einer Stromquelle fließt und Speicher, Tools und frühere Erkenntnisse umfassen kann.

Als Schalttafel entscheidet MCP, welche Stromquellen (Tool-Ausgabe oder Kontext) wann angeschlossen werden, reguliert den Strom (Informationsfluss) und filtert und priorisiert Eingaben. Dadurch wird sichergestellt, dass nur relevante Verbindungen mit Strom versorgt werden (der relevante Kontext wird geladen), und das Timing und Routing der Verbindung wird gesteuert, um das System nicht zu überlasten.

So wie ein gut durchdachter Schaltkreis Überlastungen verhindert und einen effizienten Stromverbrauch gewährleistet, dient MCP als Verbindungsstück, um eine effiziente, relevante und strukturierte Nutzung des Kontexts für eine optimale Leistung des KI-Modells zu ermöglichen.

MCP schafft einen neuen Open-Source-Standard, auf den sich KI-Ingenieure einigen können. Allerdings sind Standards sind kein neues Konzept in der Softwarebranche. REST-APIs sind beispielsweise Branchenstandards, die einen konsistenten Datenaustausch zwischen Anwendungen über HTTP-Anfragen ermöglichen, die den REST-Designprinzipien entsprechen.

In ähnlicher Weise vereint MCP das LLM und externe Dienste, um durch das Festlegen eines Standards effizient zu kommunizieren. Dieser Standard ermöglicht die Verwendung von „Plug-and-Play“-Tools, anstatt für die individuelle Integration jedes Tools Code zu schreiben.

MCP ist kein Framework, sondern eine standardisierte Integration für Agenten, die auf Tools zugreifen. MCP ergänzt Frameworks für die Agenten-Orchestrierung wie LangChain, LangGraph, BeeAI, LlamaIndex und crewAI, ersetzt sie jedoch nicht. MCP entscheidet nicht, wann ein Tool aufgerufen wird und zu welchem Zweck.

MCP bietet lediglich eine standardisierte Verbindung, um die Toolintegration zu optimieren.3 Letztendlich bestimmt das LLM auf der Grundlage des Kontexts der Benutzeranfrage, welche Tools aufgerufen werden müssen.

KI-Agenten

5 Arten von KI-Agenten: Autonome Funktionen und Anwendungen in der echten Welt

Erfahren Sie, wie sich zielgerichtete und dienstprogrammbasierte KI an Workflows und komplexe Umgebungen anpassen kann.

MCP-Architektur

Das MCP-Client/Server-Modell kann in drei wesentliche Architektur-Komponenten unterteilt werden:

MCP-Host

Eine KI-Anwendung empfängt die Benutzeranforderungen und versucht über das MCP, auf den Kontext zuzugreifen. Diese Integrationsschicht kann IDEs wie Cursor oder Claude Desktop enthalten. Sie enthält die Orchestrierungslogik und kann jeden Client mit einem Server verbinden. 4

MCP-Client

Die Kommunikation im MCP-Ökosystem zwischen Host und Server muss über einen Client erfolgen. Dieser Client befindet sich innerhalb des Hosts und konvertiert Benutzeranfragen in ein strukturiertes Format, das das offene Protokoll verarbeiten kann. Auf einem einzelnen MCP-Host können mehrere Clients existieren, aber jeder Client hat eine 1:1-Beziehung zu einem MCP-Server.

Beispiele für MCP-Clients sind IBM® BeeAI, Microsoft Copilot Studio, Claude.ai, Windsurf Editor und Postman. Clients dienen als Sitzungsmanager, indem sie Unterbrechungen, Zeitüberschreitungen, Wiederverbindungen und Sitzungsschließungen verarbeiten. Clients parsen außerdem Antworten, führen eine Fehlerbehandlung durch und verifizieren, dass die Antworten für den Kontext relevant und angemessen sind.4

MCP-Server

Der externe Service, der dem LLM den Kontext bereitstellt, indem er Benutzeranfragen in Serveraktionen umwandelt. Beispiele für MCP-Server-Integrationen sind Slack, GitHub, Git, Docker oder die Websuche. Bei diesen Servern handelt es sich in der Regel um GitHub-Repositorys, die in verschiedenen Programmiersprachen (etwa C#, Java, TypeScript oder Python) verfügbar sind und Zugriff auf MCP-Tools bieten.

In diesen GitHub-Repositorys finden Sie in der Regel Tutorials, die bei der technischen Implementierung helfen. MCP-Server können auch verwendet werden, um LLM-Inferenzen über KI-Plattformanbieter wie IBM und OpenAI mit dem MCP SDK zu verbinden. Auf diese Weise wird ein wiederverwendbarer MCP-Dienst geschaffen, auf den Clients als „standardisiertes“ Chat-Tool zugreifen können.

MCP-Server sind vielseitig einsetzbar, da sie Verbindungen zu internen und externen Ressourcen und Tools zulassen. Laut den von Anthropic bereitgestellten Dokumenten veröffentlichen Model Context Protocol-Server Daten über:

  • Ressourcen: Informationsabruf aus internen oder externen Datenbanken. Ressourcen geben Daten zurück, führen aber keine umsetzbaren Berechnungen durch.5
  • Tools: Informationsaustausch mit Tools, die einen Nebeneffekt wie eine Berechnung ausführen oder Daten über eine API-Anfrage abrufen können.6
  • Prompts: Wiederverwendbare Vorlagen und Workflows für die Kommunikation zwischen LLM und Server.7

Die Transportschicht zwischen Clients und Servern ist für die bidirektionale Konvertierung von Nachrichten zuständig. Im Client-zu-Server-Stream werden MCP-Protokollnachrichten in das JSON-RPC-Format konvertiert, was den Transport mehrerer Datenstrukturen und deren Verarbeitungsregeln ermöglicht.8

Im umgekehrten Server-zu-Client-Stream werden die empfangenen Nachrichten im JSON-RPC-Format wieder in MCP-Protokollnachrichten konvertiert.9 Zu den drei Nachrichtentypen von JSON-RPC gehören Anfragen, Antworten und Benachrichtigungen. Anfragen erfordern eine Antwort vom Server, Benachrichtigungen hingegen nicht.

Model Context Protocol-Architektur Model Context Protocol-Architektur

In der Transportschicht zwischen Clients und Servern gibt es zwei Haupttransportmethoden für das MCP-Protokoll, die beide Nachrichten im JSON-RPC 2.0-Format übertragen. Die erste ist die Standard-Ein-/Ausgabe (stdio), die sich aufgrund der einfachen Übertragung von Ein-/Ausgabeinformationen am besten für die Integration lokaler Ressourcen eignet. Dieses Format wird für die einfache, synchrone Nachrichtenübermittlung verwendet.4 Zu diesen Ressourcen gehören lokale Dateisysteme, Datenbanken und lokale APIs.

Die zweite sind Server-Sent Events (SSE), die sich am besten für die Integration von Remote-Ressourcen eignen. HTTP-POST-Anfragen dienen als Mechanismus für die Übertragung von Client-Server-Nachrichten, SSE für den umgekehrten Weg. Dieses Format kann verwendet werden, um mehrere asynchrone, ereignisgesteuerte Serveraufrufe gleichzeitig zu verarbeiten.4

Vorteile von MCP

Stellen Sie sich eine reale KI vor, die Ihren Posteingang scannt, um Kundenbesprechungen zu planen, Aktien-Updates sendet und Zusammenfassungen der Slack-Aktivitäten der letzten Stunde sendet. Jeder Dienstanbieter konstruiert seine APIs unterschiedlich, indem er unterschiedliche Informationen zur Übermittlung verlangt und unterschiedliche Ausgabeschemata zurückgibt. Daher kann die kleinste Änderung an diesen Tools zum Zusammenbruch der gesamten KI-Workflow-Infrastruktur führen.

Darüber hinaus entsteht für die Ingenieure ein erheblicher Entwicklungsaufwand, da sie diese Tool-Verbindungen manuell erstellen, debuggen und die Authentifizierung wie API-Schlüssel und Tool-Berechtigungen verwalten müssen. Tools sind oft von der Ausgabe anderer Tools abhängig, und es gibt viele Sonderfälle, in denen diese Verbindungen fehlschlagen.

Daher ist es von entscheidender Bedeutung, eine MCP-Integration als mittlere Schicht zwischen dem LLM und den Entwicklungstools bereitzustellen. In dieser Schicht kann das MCP die Tool-Ausgabe auf eine für das Modell verständliche Weise konvertieren. Ohne zwischen CLIs wechseln zu müssen, erfolgt die Tool-Integration zentral.

Es gibt viele reale Anwendungsfälle für MCP. Zum Beispiel verbessert MCP die Multiagenten-Orchestrierung und -Kommunikation durch einen gemeinsamen Arbeitsbereich mit gemeinsamen Tools, wodurch direkte Integrationen überflüssig werden.3

MCP kann auch verwendet werden, um Retrieval-Augmented Generation (RAG) zu ergänzen. Anstatt den Retriever zum Durchsuchen eines Vektorspeichers oder einer Wissensdatenbank bereitzustellen, kann MCP über eine Serveraktion eine Verbindung zu einer Vektordatenbank herstellen. Die Datenbank als Tool zu durchsuchen, anstatt den Retriever bei jedem LLM-Aufruf zu übergeben, ermöglicht eine strategischere Nutzung des Tools. Dieser Ansatz ermöglicht auch weitere Tool-Aufrufe beim Abrufen von Daten.3

Die Zukunft von MCP

MCP stellt einen sich entwickelnden Ansatz zur LLM-Tool-Integration dar, der im Laufe der Zeit immer ausgereifter wird und den Bereich umgestaltet. Wenn technische Herausforderungen auftreten und sich MCP-Server weiterentwickeln, passt sich der Standard an und MCPs werden weiter verbessert.

Unabhängig davon ist die Notwendigkeit einer standardisierten Tool-Integration entscheidend, damit KI-Agenten autonom arbeiten und sich dynamisch an reale Umgebungen anpassen können.10Mit MCP können wir die Automatisierung komplexer agentischer Workflows rationalisieren, sodass weniger menschliche Aufsicht erforderlich ist. Diese durch MCP ermöglichte Verschiebung ermöglicht es wiederum, unsere Zeit für nuanciertere Aufgaben zu verwenden, die menschlichen Intellekt und Intuition erfordern. 

Weiterführende Lösungen
KI-Agenten für Unternehmen

Entwickeln, implementieren und verwalten Sie leistungsstarke KI-Assistenten und -Agenten, die Workflows und Prozesse mit generativer KI automatisieren.

    Entdecken Sie watsonx Orchestrate
    IBM KI-Agenten-Lösungen

    Gestalten Sie die Zukunft Ihres Unternehmens mit KI-Lösungen, denen Sie vertrauen können.

    KI-Agenten-Lösungen erkunden
    IBM Consulting KI-Dienstleistungen

    Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.

    Erkunden Sie die Services im Bereich der künstlichen Intelligenz
    Machen Sie den nächsten Schritt

    Ganz gleich, ob Sie vorgefertigte Apps und Skills anpassen oder mithilfe eines KI-Studios eigene Agentenservices erstellen und bereitstellen möchten, die IBM watsonx-Plattform bietet Ihnen alles, was Sie brauchen.

    Entdecken Sie watsonx Orchestrate watsonx.ai erkunden
    Fußnoten

    1 Introduction—Model Context Protocol https://modelcontextprotocol.io/introduction, 2025
    2 Hou, X., Zhao, Y., Wang, S., & Wang, H., Model context protocol (MCP): Landscape, security threats and future research directions. arXiv preprint arXiv: 2503.23278, 2025
    3 Se, K., #14: What is MCP and why is everyone—suddenly!—talking about it? Huggingface.cohttps://huggingface.co/blog/Kseniase/mcp, 17. März 2025
    4 Ray, P., A survey on Model Context Protocol: Architecture, state-of-the-art, challenges and future directions. TechRxiv, 18. April 2025
    5 Resources—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/resources, 2025
    6 Tools—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/tools, 2025
    7 Prompts—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/prompts, 2025
    8 JSON-RPC Working Group—JSON-RPC 2.0 specification. Jsonrpc.orghttps://www.jsonrpc.org/specification, 26. März 2025
    9 Transports—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/transports, 2025
    10 Singh, A., Ehtesham, A., Kumar, S. und Khoei, T. T., A survey of the Model Context Protocol (MCP): Standardizing context to enhance large language models (LLMs) Preprints, https://doi.org/10.20944/preprints202504.0245.v1, 2025