Le ultime tendenze in materia di AI, proposte da esperti
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
I protocolli degli agenti AI stabiliscono standard di comunicazione tra agenti di intelligenza artificiale e tra agenti AI e altri sistemi. Questi protocolli specificano la sintassi, la struttura e la sequenza dei messaggi, insieme a convenzioni di comunicazione come i ruoli che gli agenti assumono nelle conversazioni e quando e come rispondono ai messaggi.
I sistemi AI basati su agenti spesso funzionano in silos. Sono costruiti da diversi fornitori utilizzando diversi framework di agenti AI e architetture agentiche distinte. L'integrazione nel mondo reale diventa una sfida e l'accoppiamento di questi sistemi frammentati richiede connettori su misura per tutti i possibili tipi di interazione con gli agenti.
È qui che entrano in gioco i protocolli. Trasformano sistemi multi-agente eterogenei in un ecosistema interconnesso in cui gli agenti basati su AI condividono un modo di scoprire, comprendere e collaborare tra loro.
Sebbene i protocolli agentici facciano parte dell'orchestrazione degli agenti AI, non agiscono come orchestratori. Standardizzano la comunicazione ma non gestiscono il coordinamento, l'esecuzione e l'ottimizzazione del workflow.
I protocolli degli agenti AI offrono questi vantaggi:
Riduzione della complessità dello sviluppo degli agenti
Standardizzazione e integrazione più fluida
I protocolli degli agenti abbattono i silos, consentendo all'agentic AI di comunicare con sé stessa indipendentemente dall'implementazione sottostante. Facilitano la collaborazione senza interruzioni tra gli agenti su diversi dispositivi, ambienti e piattaforme.
Poiché i protocolli affrontano la complessità dell'interazione tra agenti ed eliminano le complessità tramite i kit di sviluppo software (SDK), aiutano a semplificare il processo di creazione di sistemi multi-agente. Gli sviluppatori AI possono concentrarsi maggiormente sulla creazione di nuove funzionalità degli agenti e sul miglioramento di quelle esistenti.
I protocolli degli agenti AI offrono un mezzo di comunicazione impostato e strutturato. E poiché molti di questi protocolli standardizzati sono costruiti sulla base di una tecnologia consolidata, aiutano a garantire la compatibilità con l'attuale stack tecnologico, rendendo più fluida l'integrazione aziendale.
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
Molti protocolli sono ancora in fase iniziale, quindi non sono ancora stati ampiamente utilizzati o applicati su larga scala. Questa mancanza di maturità significa che le organizzazioni devono essere pronte ad agire come early adopter, adattandosi ai cambiamenti radicali e all'evoluzione delle specifiche.
Con l'evolversi della tecnologia agentica, potrebbero emergere nuovi protocolli. Di seguito sono riportati alcuni protocolli attuali dell'agente AI:
Protocollo Agent2Agent (A2A)
Protocollo di comunicazione dell'agente (ACP)
Protocollo di rete dell'agente (ANP)
Protocollo di interazione agente-interfaccia utente (AG-UI)
Agora
Protocollo LMOS
Protocollo di contesto del modello (MCP)
Il protocollo A2A è uno standard aperto per la comunicazione degli agenti AI inizialmente lanciato da Google e ora gestito dalla Linux Foundation. Segue una configurazione del modello client-server con un workflow in tre fasi:
Come A2A, il protocollo di comunicazione dell'agente (ACP) è un altro standard aperto per la comunicazione tra agenti, inizialmente introdotto da BeeAI di IBM e ora parte della Linux Foundation.
I suoi componenti principali includono un client ACP e un server ACP. Il client ACP invia richieste al server ACP tramite un'API RESTful su HTTP. Il server ACP ospita uno o più agenti dietro un singolo endpoint HTTP e instrada le attività all'agente appropriato.
Ecco le altre caratteristiche principali di ACP:
Il protocollo può essere utilizzato con strumenti HTTP standard come Postman o anche con un browser, ma sono disponibili anche degli SDK.
Il rilevamento può avvenire online interrogando direttamente i server ACP e i file manifest pubblici a URL noti. L'individuazione offline avviene tramite un registro centralizzato o incorporando i metadati degli agenti direttamente nei loro pacchetti di distribuzione.
ACP accetta diversi tipi di messaggi, come audio, immagini, testo, video o formati binari personalizzati.
Il protocollo di rete dell'agente (ANP) è un protocollo open source il cui obiettivo è essere "l'HTTP dell'era del web agentico". Pertanto, utilizza HTTP per il trasporto dei dati e JSON-LD (JSON for Linked Data) per la formattazione dei dati.
L'ANP adotta un'architettura peer-to-peer composta da tre livelli:
Il livello di identità implementa sia la crittografia end-to-end per comunicazioni sicure sia l'autenticazione decentralizzata dell'identità basata sullo standard DID (Decentralized Identifiers) del W3C.
Il livello di meta-protocollo consente agli agenti di negoziare e concordare le modalità di comunicazione.
Il livello del protocollo di applicazione consente agli agenti autonomi di descrivere le proprie funzionalità e fornisce supporto per il rilevamento degli agenti.
Il protocollo di interazione agente-utente (AG-UI) intende standardizzare il modo in cui gli agenti AI back-end si connettono alle applicazioni front-end o rivolte all'utente. È progettato per l'interazione uomo-agente in tempo reale, come la chat con gli assistenti AI e i chatbot, gli aggiornamenti di stato in live streaming e altre automazioni agentiche che comportano un approccio human-in-the-loop.
L'architettura basata sugli eventi di AG-UI consente agli agenti AI di produrre eventi in base a determinati trigger di sistema o input degli utenti. Il protocollo definisce una serie di categorie, comprese quelle per l'invio e la ricezione di messaggi, il tool calling e l'esecuzione di attività.
Il suo livello middleware supporta diversi metodi di trasporto, come gli eventi inviati dal server (SSE), i webhook e i WebSocket. AG-UI consente inoltre un proxy sicuro per instradare le richieste in modo sicuro tra agenti e interfacce utente.
Agora è un protocollo di comunicazione per agenti basato su modelli linguistici di grandi dimensioni (LLM). Si basa su alcune funzionalità fondamentali di un agente LLM: Natural Language Understanding, esecuzione di istruzioni, scrittura ed esecuzione di codice e negoziazione autonoma.
Gli agenti LLM possono implementare e supportare i propri protocolli, che descrivono in testo normale all'interno di un documento di protocollo. La prima parte del documento contiene metadati che identificano il nome del protocollo, la descrizione e se si tratta di uno o più cicli di conversazione. La seconda parte delinea come avviene la comunicazione, con istruzioni in un mix di linguaggio naturale e codice. Gli agenti sono quindi lasciati liberi di negoziare autonomamente quale protocollo adottare.
Agora utilizza HTTPS per la trasmissione dei dati e JSON per la formattazione. Utilizza anche un sistema di identificazione basato su hash per i documenti di protocollo.
Sviluppato dalla Eclipse Foundation, il protocollo Language Model Operating System (LMOS) mira a inaugurare un Internet of Agents (IoA), un ecosistema multiagente su scala Internet. Simile ad ANP, la sua architettura strutturata è composta da tre livelli:
Il livello di identità e sicurezza fornisce comunicazioni crittografate e supporta diversi schemi di autenticazione, come W3C DID e OAuth 2.0.
Il livello del protocollo di trasporto consente agli agenti di scegliere e adattare il protocollo di trasporto più adatto al loro scopo per ogni interazione.
Il livello del protocollo di applicazione delinea i formati per le descrizioni di agenti e strumenti, i metodi di rilevamento, un modello di dati semantico e un sottoprotocollo websocket.
Il protocollo LMOS utilizza JSON-LD per descrivere le funzionalità di strumenti e agenti e altri metadati. La scoperta avviene in modo dinamico, interrogando una directory centrale o attraverso reti decentralizzate.
Introdotto da Anthropic, il Model Context Protocol (MCP) fornisce un metodo standardizzato affinché i modelli AI ottengano il contesto di cui hanno bisogno per svolgere le attività. In ambito agentico, l'MCP funge da livello per consentire agli agenti AI di connettersi e comunicare con servizi e strumenti esterni, come API, database, file, ricerche web e altre fonti di dati.
L'MCP comprende questi tre elementi architettonici chiave:
L'host MCP contiene la logica di orchestrazione e può connettere ogni client MCP a un server MCP. Può ospitare più client.
Un client MCP converte le richieste degli utenti in un formato strutturato che il protocollo può elaborare. Ogni client ha una relazione uno a uno con un server MCP. I client gestiscono le sessioni, analizzano e verificano le risposte e gestiscono gli errori.
Il server MCP converte le richieste degli utenti in azioni del server. I server sono in genere repository GitHub disponibili in vari linguaggi di programmazione e forniscono l'accesso agli strumenti. Possono anche essere usati per connettere l'inferenza LLM all'SDK MCP tramite fornitori di piattaforme AI come IBM e OpenAI.
Nel livello di trasporto tra client e server, i messaggi vengono trasmessi in formato JSON-RPC 2.0 utilizzando uno standard input/output (stdio) per una messaggistica sincrona leggera o SSE per chiamate asincrone basate su eventi.
In mancanza di benchmark per una valutazione standardizzata, le aziende devono condurre una propria valutazione del protocollo che meglio si adatta alle loro esigenze aziendali. Potrebbe essere necessario iniziare con un caso d'uso piccolo e controllato combinato con test accurati e rigorosi.
Di seguito sono riportati alcuni aspetti da considerare quando si valutano i protocolli degli agenti:
Efficienza
Affidabilità
Scalabilità
Sicurezza
Idealmente, i protocolli sono progettati per limitare la latenza, con conseguente trasferimento rapido dei dati e tempi di risposta altrettanto rapidi. Sebbene sia previsto un certo sovraccarico di comunicazione, deve essere ridotto al minimo.
I protocolli degli agenti AI devono essere in grado di gestire le mutevoli condizioni di rete durante i workflow, con meccanismi in atto per gestire guasti o interruzioni. Ad esempio, ACP è progettato con la comunicazione asincrona come impostazione predefinita, che si adatta a compiti complessi o di lunga durata. Nel frattempo, A2A supporta lo streaming in tempo reale utilizzando SSE per output grandi o lunghi o aggiornamenti di stato continui.
I protocolli devono essere sufficientemente solidi da soddisfare gli ecosistemi di agenti in crescita senza un calo delle loro prestazioni. La valutazione della scalabilità può includere l'aumento del numero di agenti o collegamenti a strumenti esterni in un periodo di tempo, gradualmente o improvvisamente, per osservare come funziona un protocollo in tali condizioni.
Mantenere la sicurezza è fondamentale e i protocolli degli agenti incorporano sempre più misure di sicurezza. Questi includono l'autenticazione, la crittografia e il controllo degli accessi.
Crea, implementa e gestisci assistenti e agenti AI potenti che automatizzano workflow e processi con l'AI generativa.
Costruisci il futuro della tua azienda con soluzioni AI di cui puoi fidarti.
I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.