Cosa sono i protocolli degli agenti AI?

Autori

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

I protocolli degli agenti AI stabiliscono standard di comunicazione tra agenti di intelligenza artificiale e tra agenti AI e altri sistemi. Questi protocolli specificano la sintassi, la struttura e la sequenza dei messaggi, insieme a convenzioni di comunicazione come i ruoli che gli agenti assumono nelle conversazioni e quando e come rispondono ai messaggi.

I sistemi AI basati su agenti spesso funzionano in silos. Sono costruiti da diversi fornitori utilizzando diversi framework di agenti AI e architetture agentiche distinte. L'integrazione nel mondo reale diventa una sfida e l'accoppiamento di questi sistemi frammentati richiede connettori su misura per tutti i possibili tipi di interazione con gli agenti.

È qui che entrano in gioco i protocolli. Trasformano sistemi multi-agente eterogenei in un ecosistema interconnesso in cui gli agenti basati su AI condividono un modo di scoprire, comprendere e collaborare tra loro.

Sebbene i protocolli agentici facciano parte dell'orchestrazione degli agenti AI, non agiscono come orchestratori. Standardizzano la comunicazione ma non gestiscono il coordinamento, l'esecuzione e l'ottimizzazione del workflow.

Benefici dei protocolli degli agenti AI

I protocolli degli agenti AI offrono questi vantaggi:

  • Interoperabilità

  • Riduzione della complessità dello sviluppo degli agenti

  • Standardizzazione e integrazione più fluida

Interoperabilità

I protocolli degli agenti abbattono i silos, consentendo all'agentic AI di comunicare con sé stessa indipendentemente dall'implementazione sottostante. Facilitano la collaborazione senza interruzioni tra gli agenti su diversi dispositivi, ambienti e piattaforme.

Riduzione della complessità dello sviluppo degli agenti

Poiché i protocolli affrontano la complessità dell'interazione tra agenti ed eliminano le complessità tramite i kit di sviluppo software (SDK), aiutano a semplificare il processo di creazione di sistemi multi-agente. Gli sviluppatori AI possono concentrarsi maggiormente sulla creazione di nuove funzionalità degli agenti e sul miglioramento di quelle esistenti.

Standardizzazione e integrazione più fluida

I protocolli degli agenti AI offrono un mezzo di comunicazione impostato e strutturato. E poiché molti di questi protocolli standardizzati sono costruiti sulla base di una tecnologia consolidata, aiutano a garantire la compatibilità con l'attuale stack tecnologico, rendendo più fluida l'integrazione aziendale.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Esempi di protocolli degli agenti AI

Molti protocolli sono ancora in fase iniziale, quindi non sono ancora stati ampiamente utilizzati o applicati su larga scala. Questa mancanza di maturità significa che le organizzazioni devono essere pronte ad agire come early adopter, adattandosi ai cambiamenti radicali e all'evoluzione delle specifiche.

Con l'evolversi della tecnologia agentica, potrebbero emergere nuovi protocolli. Di seguito sono riportati alcuni protocolli attuali dell'agente AI:

  • Protocollo Agent2Agent (A2A)

  • Protocollo di comunicazione dell'agente (ACP)

  • Protocollo di rete dell'agente (ANP)

  • Protocollo di interazione agente-interfaccia utente (AG-UI)

  • Agora

  • Protocollo LMOS

  • Protocollo di contesto del modello (MCP) 

Un diagramma di flusso che illustra l'interazione tra utente, interfaccia utente di applicazione/sistema e sistema multiagente.

Protocollo Agent2Agent (A2A)

Il protocollo A2A è uno standard aperto per la comunicazione degli agenti AI inizialmente lanciato da Google e ora gestito dalla Linux Foundation. Segue una configurazione del modello client-server con un workflow in tre fasi:

  1. Il rilevamento avviene quando un'entità (un utente umano o un altro agente AI) avvia una richiesta di attività a un agente client, che quindi cerca agenti remoti per determinare la soluzione migliore.
  2. Una volta che l'agente client identifica un agente remoto in grado di svolgere il compito, passa all'autenticazione. L'agente remoto è responsabile dell'autorizzazione e della concessione delle autorizzazioni di controllo degli accessi .
  3. La comunicazione procede con l'agente client che invia l'operazione e l'agente remoto che la elabora. La comunicazione tra agenti avviene tramite HTTPS per un trasporto sicuro, con JSON-RPC (Remote Procedure Call) 2.0 come formato per lo scambio di dati.

Protocollo di comunicazione dell'agente (ACP)

Come A2A, il protocollo di comunicazione dell'agente (ACP) è un altro standard aperto per la comunicazione tra agenti, inizialmente introdotto da BeeAI di IBM e ora parte della Linux Foundation.

I suoi componenti principali includono un client ACP e un server ACP. Il client ACP invia richieste al server ACP tramite un'API RESTful su HTTP. Il server ACP ospita uno o più agenti dietro un singolo endpoint HTTP e instrada le attività all'agente appropriato.

Ecco le altre caratteristiche principali di ACP:

  • Il protocollo può essere utilizzato con strumenti HTTP standard come Postman o anche con un browser, ma sono disponibili anche degli SDK.

  • Il rilevamento può avvenire online interrogando direttamente i server ACP e i file manifest pubblici a URL noti. L'individuazione offline avviene tramite un registro centralizzato o incorporando i metadati degli agenti direttamente nei loro pacchetti di distribuzione.

  • ACP accetta diversi tipi di messaggi, come audio, immagini, testo, video o formati binari personalizzati.

Protocollo di rete dell'agente (ANP)

Il protocollo di rete dell'agente (ANP) è un protocollo open source il cui obiettivo è essere "l'HTTP dell'era del web agentico". Pertanto, utilizza HTTP per il trasporto dei dati e JSON-LD (JSON for Linked Data) per la formattazione dei dati.

L'ANP adotta un'architettura peer-to-peer composta da tre livelli:

  • Il livello di identità implementa sia la crittografia end-to-end per comunicazioni sicure sia l'autenticazione decentralizzata dell'identità basata sullo standard DID (Decentralized Identifiers) del W3C.

  • Il livello di meta-protocollo consente agli agenti di negoziare e concordare le modalità di comunicazione.

  • Il livello del protocollo di applicazione consente agli agenti autonomi di descrivere le proprie funzionalità e fornisce supporto per il rilevamento degli agenti.

Protocollo di interazione agente-interfaccia utente (AG-UI)

Il protocollo di interazione agente-utente (AG-UI) intende standardizzare il modo in cui gli agenti AI back-end si connettono alle applicazioni front-end o rivolte all'utente. È progettato per l'interazione uomo-agente in tempo reale, come la chat con gli assistenti AI e i chatbot, gli aggiornamenti di stato in live streaming e altre automazioni agentiche che comportano un approccio human-in-the-loop.

L'architettura basata sugli eventi di AG-UI consente agli agenti AI di produrre eventi in base a determinati trigger di sistema o input degli utenti. Il protocollo definisce una serie di categorie, comprese quelle per l'invio e la ricezione di messaggi, il tool calling e l'esecuzione di attività.

Il suo livello middleware supporta diversi metodi di trasporto, come gli eventi inviati dal server (SSE), i webhook e i WebSocket. AG-UI consente inoltre un proxy sicuro per instradare le richieste in modo sicuro tra agenti e interfacce utente.

Agora

Agora è un protocollo di comunicazione per agenti basato su modelli linguistici di grandi dimensioni (LLM). Si basa su alcune funzionalità fondamentali di un agente LLM: Natural Language Understanding, esecuzione di istruzioni, scrittura ed esecuzione di codice e negoziazione autonoma.

Gli agenti LLM possono implementare e supportare i propri protocolli, che descrivono in testo normale all'interno di un documento di protocollo. La prima parte del documento contiene metadati che identificano il nome del protocollo, la descrizione e se si tratta di uno o più cicli di conversazione. La seconda parte delinea come avviene la comunicazione, con istruzioni in un mix di linguaggio naturale e codice. Gli agenti sono quindi lasciati liberi di negoziare autonomamente quale protocollo adottare.

Agora utilizza HTTPS per la trasmissione dei dati e JSON per la formattazione. Utilizza anche un sistema di identificazione basato su hash per i documenti di protocollo.

Protocollo LMOS

Sviluppato dalla Eclipse Foundation, il protocollo Language Model Operating System (LMOS) mira a inaugurare un Internet of Agents (IoA), un ecosistema multiagente su scala Internet. Simile ad ANP, la sua architettura strutturata è composta da tre livelli:

  • Il livello di identità e sicurezza fornisce comunicazioni crittografate e supporta diversi schemi di autenticazione, come W3C DID e OAuth 2.0.

  • Il livello del protocollo di trasporto consente agli agenti di scegliere e adattare il protocollo di trasporto più adatto al loro scopo per ogni interazione.

  • Il livello del protocollo di applicazione delinea i formati per le descrizioni di agenti e strumenti, i metodi di rilevamento, un modello di dati semantico e un sottoprotocollo websocket.

Il protocollo LMOS utilizza JSON-LD per descrivere le funzionalità di strumenti e agenti e altri metadati. La scoperta avviene in modo dinamico, interrogando una directory centrale o attraverso reti decentralizzate.

Protocollo di contesto del modello (MCP)

Introdotto da Anthropic, il Model Context Protocol (MCP) fornisce un metodo standardizzato affinché i modelli AI ottengano il contesto di cui hanno bisogno per svolgere le attività. In ambito agentico, l'MCP funge da livello per consentire agli agenti AI di connettersi e comunicare con servizi e strumenti esterni, come API, database, file, ricerche web e altre fonti di dati.

L'MCP comprende questi tre elementi architettonici chiave:

  • L'host MCP contiene la logica di orchestrazione e può connettere ogni client MCP a un server MCP. Può ospitare più client.

  • Un client MCP converte le richieste degli utenti in un formato strutturato che il protocollo può elaborare. Ogni client ha una relazione uno a uno con un server MCP. I client gestiscono le sessioni, analizzano e verificano le risposte e gestiscono gli errori.

  • Il server MCP converte le richieste degli utenti in azioni del server. I server sono in genere repository GitHub disponibili in vari linguaggi di programmazione e forniscono l'accesso agli strumenti. Possono anche essere usati per connettere l'inferenza LLM all'SDK MCP tramite fornitori di piattaforme AI come IBM e OpenAI.

Nel livello di trasporto tra client e server, i messaggi vengono trasmessi in formato JSON-RPC 2.0 utilizzando uno standard input/output (stdio) per una messaggistica sincrona leggera o SSE per chiamate asincrone basate su eventi.

Agenti AI

5 tipi di agenti AI: funzioni autonome e applicazioni nel mondo reale

Scopri come l'AI basata sugli obiettivi e sulle utilità si adatta ai workflow e agli ambienti complessi.

Fattori da considerare quando si sceglie un framework di agenti AI

In mancanza di benchmark per una valutazione standardizzata, le aziende devono condurre una propria valutazione del protocollo che meglio si adatta alle loro esigenze aziendali. Potrebbe essere necessario iniziare con un caso d'uso piccolo e controllato combinato con test accurati e rigorosi.

Di seguito sono riportati alcuni aspetti da considerare quando si valutano i protocolli degli agenti:

  • Efficienza

  • Affidabilità

  • Scalabilità

  • Sicurezza

Efficienza

Idealmente, i protocolli sono progettati per limitare la latenza, con conseguente trasferimento rapido dei dati e tempi di risposta altrettanto rapidi. Sebbene sia previsto un certo sovraccarico di comunicazione, deve essere ridotto al minimo.

Affidabilità

I protocolli degli agenti AI devono essere in grado di gestire le mutevoli condizioni di rete durante i workflow, con meccanismi in atto per gestire guasti o interruzioni. Ad esempio, ACP è progettato con la comunicazione asincrona come impostazione predefinita, che si adatta a compiti complessi o di lunga durata. Nel frattempo, A2A supporta lo streaming in tempo reale utilizzando SSE per output grandi o lunghi o aggiornamenti di stato continui.

Scalabilità

I protocolli devono essere sufficientemente solidi da soddisfare gli ecosistemi di agenti in crescita senza un calo delle loro prestazioni. La valutazione della scalabilità può includere l'aumento del numero di agenti o collegamenti a strumenti esterni in un periodo di tempo, gradualmente o improvvisamente, per osservare come funziona un protocollo in tali condizioni.

Sicurezza

Mantenere la sicurezza è fondamentale e i protocolli degli agenti incorporano sempre più misure di sicurezza. Questi includono l'autenticazione, la crittografia e il controllo degli accessi.

Soluzioni correlate
Agenti AI per il Business

Crea, implementa e gestisci assistenti e agenti AI potenti che automatizzano workflow e processi con l'AI generativa.

    Scopri watsonx Orchestrate
    Soluzioni per agenti AI IBM

    Costruisci il futuro della tua azienda con soluzioni AI di cui puoi fidarti.

    Esplora le soluzioni basate su agenti AI
    Servizi AI di IBM Consulting

    I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.

    Esplora i servizi di intelligenza artificiale
    Prossimi passi

    Sia che tu scelga di personalizzare app e competenze precostituite o di creare e implementare servizi di agenti personalizzati utilizzando uno studio di AI, la piattaforma IBM watsonx è la soluzione che fa per te.

    Scopri watsonx Orchestrate Esplora watsonx.ai