Che cos'è il protocollo di contesto del modello (MCP)?

Autore

Anna Gutowska

AI Engineer, Developer Advocate

IBM

Il protocollo di contesto del modello (MCP) funge da livello di standardizzazione per consentire alle applicazioni AI di comunicare efficacemente con servizi esterni come strumenti, database e modelli predefiniti.

Hai mai provato a creare un sistema multiagente ma hai avuto difficoltà a produrre un'efficace diffusione delle informazioni tra i vari agenti specializzati? La varietà di strumenti predefiniti e personalizzati forniti al tuo Agente AI sta causando errori di esecuzione degli strumenti o di parsing dell'output? O forse, queste complicazioni ti hanno scoraggiato del tutto dal tentare di sviluppare i tuoi agenti?

Questi impedimenti possono essere risolti con il protocollo di contesto del modello (MCP). Il protocollo MCP consente agli agenti AI di essere consapevoli del contesto, rispettando al contempo un protocollo standardizzato per l'integrazione degli strumenti.

Un agente AI è un sistema o un programma in grado di eseguire autonomamente attività per conto di un utente o di un altro sistema. Le esegue progettando il suo workflow e utilizzando gli strumenti disponibili. I sistemi multiagente sono costituiti da più agenti AI che lavorano collettivamente per eseguire attività per conto di un utente o di un altro sistema.

Puoi pensare al protocollo MCP per le applicazioni AI come qualcosa che ha lo stesso scopo di una porta USB-C per l'hardware.1 Questa analogia evidenzia l'adattabilità fornita dalle porte USB-C per il collegamento dell'hardware confrontandola con il modo standardizzato in cui vari strumenti e fonti di dati forniscono contesto ai modelli AI tramite il protocollo MCP.

Gli strumenti forniscono significato

I modelli linguistici di grandi dimensioni (LLM) come Granite, Gemini e Llama hanno funzionalità limitate se implementati da soli. Senza strumenti di AI, gli LLM sono specializzati in diversi ambiti, tra cui:

  • Previsione del testo successivo: richiedendo a un LLM di completare una frase come "Jack e Jill sono saliti sulla..." si ottengono i risultati di una previsione corretta: "Jack e Jill sono saliti sulla collina". Questo prompt e le relative risposte sono un esempio di previsione del testo successiva e funzionano meglio per il testo su cui è stato addestrato il modello.
  • Domande e risposte di base: poiché un LLM da solo non può accedere a database esterni o ricerche web, può rispondere a domande in linguaggio naturale relative alle informazioni nei dati utilizzati per addestrare il modello. Un esempio potrebbe essere "Parlami del trattato di Versailles", perché è molto probabile che queste informazioni su una grande guerra mondiale siano incluse nei dati di addestramento dei modelli di uso generale. Gli LLM eseguono spesso questa generazione di testo sotto forma di chatbot.
  • Analisi del sentiment: gli LLMs possono elaborare il testo e determinare se esprime un sentimento positivo, negativo o neutro.
  • Traduzione linguistica: gli LLM possono tradurre testo in diverse lingue e aree geografiche. Tuttavia, non tutti gli LLM vengono addestrati con dati provenienti da più di una lingua.

A parte le funzioni di base, un LLM senza accesso a strumenti esterni non può eseguire correttamente alcuna query utente che richieda l'accesso a informazioni in tempo reale. Per fornire agli LLM l'opportunità di produrre risultati più significativi, è possibile introdurre l'integrazione degli strumenti. Fornire strumenti esterni come ricerche sul web, datasets e API consente all'LLM di espandere le sue capacità al di là dei dati di formazione.

Per fare un ulteriore passo avanti, possiamo sviluppare degli agenti AI utilizzando un LLM e gli strumenti a sua disposizione. Riassumendo, i sistemi agentici forniscono a un LLM una serie di strumenti, consentendo al modello di determinare l'uso appropriato degli strumenti, adattarsi a un ambiente in evoluzione e trarre conclusioni sintetizzate basate sull'output dello strumento. Tuttavia, su larga scala, questi sistemi di AI tendono a fallire. Quindi, il protocollo MCP, introdotto da Anthropic nel 2024, stabilisce uno standard aperto per le interazioni tra strumenti di AI.2

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Il protocollo MCP stabilisce uno standard

Collegare servizi esterni a un LLM è complicato. Immagina un circuito elettrico che collega un motore a diverse fonti di alimentazione. Il protocollo MCP è come il cablaggio e il centralino di questo circuito: decide quale corrente elettrica (informazioni) fluisce verso il motore (modello AI). L'output dello strumento o contesto del modello può essere paragonato all'input: è la tensione che fluisce da una fonte di alimentazione e può includere memoria, strumenti e risultati passati.

Come centralino, il protocollo MCP decide quali fonti di alimentazione (output o contesto dello strumento) collegare e quando farlo, regola la corrente (flusso di informazioni), la filtra e organizza gli input per priorità. Lo fa per garantire che solo i cavi pertinenti siano alimentati (viene caricato il contesto pertinente) e gestisce i tempi e il routing del circuito per non sovraccaricare il sistema.

Proprio come un circuito ben progettato previene il sovraccarico e garantisce un uso efficiente dell'energia, il protocollo MCP funge da connettore per facilitare un uso efficiente, pertinente e strutturato del contesto per prestazioni ottimali dei modelli AI.

Il protocollo MCP stabilisce un nuovo standard open source su cui gli ingegneri di AI devono concordare. Comunque, gli standard non sono un concetto nuovo nel settore dei software. Ad esempio, le API REST sono standard del settore e offrono uno scambio di dati coerente tra le applicazioni tramite richieste HTTP in linea con i principi di progettazione REST.

Allo stesso modo, il protocollo MCP unifica l'LLM e i servizi esterni per comunicare in modo efficiente stabilendo uno standard. Questo standard consente l'utilizzo di strumenti "plug-and-play" anziché prevedere la scrittura di codice per l'integrazione personalizzata di ogni strumento.

Il protocollo MCP non è un framework per agenti, ma un livello di integrazione standardizzato per gli agenti che accedono agli strumenti. Integra i framework di orchestrazione degli agenti. Il protocollo MCP può integrare framework di orchestrazione di agenti come LangChain, LangGraph, BeeAI, LlamaIndex e crewAI, ma non li sostituisce; il protocollo MCP non decide quando chiamare uno strumento e per quale scopo.

Il protocollo MCP fornisce semplicemente una connessione standardizzata per semplificare l'integrazione degli strumenti.3 In ultima analisi, l'LLM determina quali strumenti chiamare in base al contesto della richiesta dell'utente.

Agenti AI

5 tipi di agenti AI: funzioni autonome e applicazioni nel mondo reale

Scopri come l'AI basata sugli obiettivi e sulle utilità si adatta ai workflow e agli ambienti complessi.

Architettura del protocollo MCP

Il modello client/server MCP può essere suddiviso in tre componenti architetturali chiave:

Host MCP

Un'applicazione AI riceve le richieste degli utenti e cerca l'accesso al contesto tramite il protocollo MCP. Questo livello di integrazione può includere IDE come Cursor o Claude Desktop. Contiene la logica di orchestrazione e può connettere ogni client a un server. Contiene la logica di orchestrazione e può connettere ogni client a un server.4

Client MCP

La comunicazione nell'ecosistema MCP tra host e server deve avvenire tramite un client. Questo client esiste all'interno dell'host e converte le richieste degli utenti in un formato strutturato che il protocollo aperto può elaborare. Con un singolo host MCP possono coesistere più client, ma ogni client ha una relazione 1:1 con un server MCP.

Degli esempi di clienti MCP sono IBM BeeAI, Microsoft Copilot Studio, Claude.ai, Windsurf Editor e Postman. I client svolgono la funzione di gestori delle sessioni, gestendo interruzioni, timeout, riconnessioni e chiusure delle sessioni. I client analizzano inoltre le risposte, gestiscono gli errori e verificano che le risposte siano pertinenti al contesto e appropriate.4

Server MCP

Il servizio esterno che fornisce il contesto all'LLM convertendo le richieste dell'utente in azioni del server. Degli esempi di integrazioni del server MCP includono Slack, GitHub, Git, Docker o la ricerca web. Questi server sono in genere repository GitHub disponibili in vari linguaggi di programmazione (C#, Java™, TypeScript, Python e altri) e forniscono accesso agli strumenti MCP.

I tutorial si trovano in genere all'interno di questi repository GitHub per facilitare l'implementazione tecnica. I server MCP possono essere utilizzati anche per connettere l'inferenza LLM, tramite fornitori di piattaforme AI come IBM e OpenAI, all'SDK MCP. In questo modo viene creato un servizio MCP riutilizzabile a cui i client possono accedere come strumento di chat "standardizzato".

I server MCP sono versatili, in quanto consentono connessioni a risorse e strumenti interni ed esterni. Secondo i documenti forniti da Anthropic, i server MCP espongono i dati tramite:

  • Risorse: recupero di informazioni da database interni o esterni. Le risorse restituiscono dati ma non eseguono calcoli attuabili.5
  • Strumenti: scambio di informazioni con strumenti in grado di eseguire un effetto collaterale, ad esempio un calcolo o il recupero di dati tramite una richiesta API.6
  • Prompt: prompt e workflow riutilizzabili per la comunicazione tra LLM e server.7

Il livello di trasporto tra client e server è responsabile della conversione bidirezionale dei messaggi. Nel flusso da client a server, i messaggi del protocollo MCP vengono convertiti in formato JSON-RPC, consentendo il trasporto di diverse strutture di dati e delle relative regole di elaborazione.8

Nel flusso inverso da server a client, i messaggi ricevuti in formato JSON-RPC vengono riconvertiti in messaggi del protocollo MCP.9 I tre tipi di messaggi JSON-RPC includono richieste, risposte e notifiche. Le richieste richiedono una risposta dal server, mentre le notifiche no.

Architettura del protocollo di contesto del modello Architettura del protocollo di contesto del modello

Nel livello di trasporto tra client e server, esistono due metodi di trasporto principali per il protocollo MCP, ed entrambi trasmettono messaggi in formato JSON-RPC 2.0. Il primo è lo standard input/output (stdio) che funziona meglio per integrare le risorse locali grazie alla semplice trasmissione di informazioni di input/output. Questo formato è utilizzato per la messaggistica leggera e sincrona.4 Tali risorse includono file system locali, database e API locali.

Il secondo è costituito dagli eventi inviati dal server (SSE), che funzionano meglio per l'integrazione di risorse remote. Le richieste HTTP POST fungono da meccanismo per la trasmissione di messaggi da client a server e l'SSE viene utilizzato per il contrario. Questo formato può essere utilizzato per gestire contemporaneamente più chiamate server asincrone basate su eventi.4

Vantaggi del protocollo MCP

Immagina un'AI del mondo reale che scansiona la tua casella di posta per programmare le riunioni con i clienti, invia aggiornamenti sulle scorte e invia riepiloghi dell'attività su Slack dell'ultima ora. Ogni fornitore di servizi costruisce le proprie API in modo diverso richiedendo informazioni diverse per il passaggio, restituendo schemi di output diversi. Pertanto, il minimo cambiamento in questi strumenti può portare al collasso dell'intera infrastruttura del workflow AI.

C'è anche un notevole carico di sviluppo per gli ingegneri che devono realizzare manualmente queste connessioni agli strumenti, eseguire il debug e mantenere l'autenticazione come le chiavi API e le autorizzazioni degli strumenti. Gli strumenti dipendono spesso dall'output di altri strumenti e ci sono molti casi in cui queste connessioni falliscono.

Pertanto, è critico fornire l'integrazione MCP come livello intermedio tra l'LLM e gli strumenti di sviluppo. In questo livello, il protocollo MCP può convertire l'output dell'utensile in un modo comprensibile dal modello. Senza la necessità di alternare le CLI, l'integrazione degli strumenti avviene tutta in un unico posto.

Ci sono molti casi d'uso reali per il protocollo MCP. Ad esempio, il protocollo MCP migliora la comunicazione e l'orchestrazione multiagente attraverso uno spazio di lavoro condiviso con strumenti comuni, eliminando la necessità di integrazioni dirette.3

Il protocollo MCP può essere utilizzato anche per integrare la retrieval-augmented generation (RAG). Invece di fornire il retriever per la ricerca in un database vettoriale o in una base di conoscenza, il protocollo MCP può connettersi a un database vettoriale tramite un'azione server. La ricerca nel database come strumento piuttosto che passare il retriever in ogni chiamata LLM consente un uso più strategico dello strumento. Questo approccio consente inoltre di effettuare ulteriori chiamate di strumenti al momento del recupero dei dati.3

Il futuro del protocollo MCP

Il protocollo MCP rappresenta un approccio in evoluzione all'integrazione degli strumenti LLM che continua a maturare e rimodellare lo spazio nel tempo. Man mano che emergono sfide tecniche e i server MCP si evolvono, lo standard si adatta e i protocolli MCP continuano a migliorare.

Indipendentemente da ciò, la necessità di un'integrazione degli strumenti è critica affinché gli agenti AI operino in modo autonomo e si adattino dinamicamente agli ambienti del mondo reale.10 Con il protocollo MCP, possiamo semplificare l'automazione di workflow agentici complessi per consentire una minore supervisione umana. A sua volta, questo cambiamento consentito dal protocollo MCP ci permette di dedicare il nostro tempo ad attività più specifiche che richiedono l'intelletto e l'intuito umani. 

Soluzioni correlate
Agenti AI per il Business

Crea, implementa e gestisci assistenti e agenti AI potenti che automatizzano workflow e processi con l'AI generativa.

    Scopri watsonx Orchestrate
    Soluzioni per agenti AI IBM

    Costruisci il futuro della tua azienda con soluzioni AI di cui puoi fidarti.

    Esplora le soluzioni basate su agenti AI
    Servizi AI di IBM Consulting

    I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.

    Esplora i servizi di intelligenza artificiale
    Prossimi passi

    Sia che tu scelga di personalizzare app e competenze precostituite o di creare e implementare servizi di agenti personalizzati utilizzando uno studio di AI, la piattaforma IBM watsonx è la soluzione che fa per te.

    Scopri watsonx Orchestrate Esplora watsonx.ai
    Note a piè di pagina

    1 Introduction—Model Context Protocol https://modelcontextprotocol.io/introduction, 2025
    2 Hou, X., Zhao, Y., Wang, S., & Wang, H., Model context protocol (MCP): Landscape, security threats and future research directions. arXiv preprint arXiv: 2503.23278, 2025
    3 Se, K., #14: What is MCP and why is everyone—suddenly!—talking about it? Huggingface.cohttps://huggingface.co/blog/Kseniase/mcp, 17 marzo 2025
    4 Ray, P., A survey on Model Context Protocol: Architecture, state-of-the-art, challenges and future directions. TechRxiv, 18 aprile 2025
    5 Resources—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/resources, 2025
    6 Tools—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/tools, 2025
    7 Prompts—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/prompts, 2025
    8 JSON-RPC Working Group—JSON-RPC 2.0 specification. Jsonrpc.orghttps://www.jsonrpc.org/specification, 26 marzo 2025
    9 Transports—Model Context Protocol https://modelcontextprotocol.io/docs/concepts/transports, 2025
    10 Singh, A., Ehtesham, A., Kumar, S., and Khoei, T. T., A survey of the Model Context Protocol (MCP): Standardizing context to enhance large language models (LLMs) Preprints, https://doi.org/10.20944/preprints202504.0245.v1, 2025