Collegare servizi esterni a un LLM è complicato. Immagina un circuito elettrico che collega un motore a diverse fonti di alimentazione. Il protocollo MCP è come il cablaggio e il centralino di questo circuito: decide quale corrente elettrica (informazioni) fluisce verso il motore (modello AI). L'output dello strumento o contesto del modello può essere paragonato all'input: è la tensione che fluisce da una fonte di alimentazione e può includere memoria, strumenti e risultati passati.
Come centralino, il protocollo MCP decide quali fonti di alimentazione (output o contesto dello strumento) collegare e quando farlo, regola la corrente (flusso di informazioni), la filtra e organizza gli input per priorità. Lo fa per garantire che solo i cavi pertinenti siano alimentati (viene caricato il contesto pertinente) e gestisce i tempi e il routing del circuito per non sovraccaricare il sistema.
Proprio come un circuito ben progettato previene il sovraccarico e garantisce un uso efficiente dell'energia, il protocollo MCP funge da connettore per facilitare un uso efficiente, pertinente e strutturato del contesto per prestazioni ottimali dei modelli AI.
Il protocollo MCP stabilisce un nuovo standard open source su cui gli ingegneri di AI devono concordare. Comunque, gli standard non sono un concetto nuovo nel settore dei software. Ad esempio, le API REST sono standard del settore e offrono uno scambio di dati coerente tra le applicazioni tramite richieste HTTP in linea con i principi di progettazione REST.
Allo stesso modo, il protocollo MCP unifica l'LLM e i servizi esterni per comunicare in modo efficiente stabilendo uno standard. Questo standard consente l'utilizzo di strumenti "plug-and-play" anziché prevedere la scrittura di codice per l'integrazione personalizzata di ogni strumento.
Il protocollo MCP non è un framework per agenti, ma un livello di integrazione standardizzato per gli agenti che accedono agli strumenti. Integra i framework di orchestrazione degli agenti. Il protocollo MCP può integrare framework di orchestrazione di agenti come LangChain, LangGraph, BeeAI, LlamaIndex e crewAI, ma non li sostituisce; il protocollo MCP non decide quando chiamare uno strumento e per quale scopo.
Il protocollo MCP fornisce semplicemente una connessione standardizzata per semplificare l'integrazione degli strumenti.3 In ultima analisi, l'LLM determina quali strumenti chiamare in base al contesto della richiesta dell'utente.