Dalle funzionalità agentiche nei modelli AI sperimentali all'implementazione nel mondo reale, il 2025 è stato l'anno in cui l'AI ha catturato l'attenzione. Per IBM, questa evoluzione è rappresentata da BeeAI e Agent Stack, due iniziative open source che hanno reinventato il modo in cui le aziende creano e implementano agenti intelligenti.
BeeAI è nato come progetto interno all'inizio del 2024, quando IBM Research prevedeva un cambiamento cruciale verso i sistemi agentici. "Abbiamo iniziato a lavorarci con l'inizio del 2024 e ora sembra tutto molto caratteristico", ha dichiarato Kate Blair, Director of Incubation and Technology Experiences di IBM Research, in un'intervista con IBM Think. "Ma eravamo concentrati su come gli utenti finali potevano utilizzare gli agenti".
Inizialmente, il team ha esplorato i sistemi conversazionali e ha lanciato una beta aperta chiamata BeeAI for Business. Tuttavia, non era il contesto giusto. Il team ha cambiato rotta, ha reso BeeAI open source e si è concentrato sugli sviluppatori.
"Stavamo iniziando a ricevere feedback dagli sviluppatori", ha affermato Blair. "Forse, invece di guardare all'interfaccia dell'utente finale che utilizza gli agenti, dovevamo guardare all'interfaccia degli sviluppatori che creano gli agenti. Ed è da lì che è nato il framework".
Oggi, il BeeAI Framework è un toolkit open source per la creazione di agenti che enfatizza l'esperienza degli sviluppatori e l'interoperabilità. Supporta l'orchestrazione multi-agente, il ragionamento basato su regole e le integrazioni con modelli leader nel campo dell'A. Sotto la governance della Linux Foundation, BeeAI ha ottenuto consensi e ora vanta più di 3.000 stelle GitHub.
Con la crescita di BeeAI, IBM ha scoperto che la sfida più grande non era creare agenti, bensì distribuirli. Originariamente, la piattaforma includeva un'interfaccia grafica utente (GUI), ma i feedback hanno rivelato che le GUI erano diventate una caratteristica scontata.
"Il feedback più importante che abbiamo ricevuto è stato che le GUI sono diventate in gran parte mercificate", ha affermato Blair. "Offrire l'interfaccia utente quale parte dello stack non è davvero il componente principale. Quindi, ci concentriamo sul modulo server. Le persone vogliono concentrarsi sulla logica degli agenti. La funzione killer è: lasciami distribuire rapidamente il mio agente. Tutto qui".
Questa intuizione ha dato il via a una svolta importante. La piattaforma si è evoluta in Agent Stack, un'infrastruttura aperta per un'implementazione rapida e indipendente dal framework. Basata sul protocollo Agent2Agent (A2A), Agent Stack permette agli sviluppatori di prendere un agente creato ovunque (BeeAI, LangGraph, CrewAI o codice personalizzato) e implementarlo in pochi minuti.
"Agent Stack è pensato per chi vuole sperimentare framework diversi dietro a un firewall", ha affermato Blair. "Devono supportare più team con più framework e conformità. Devono essere in hosting autonomo".
Agent Stack affronta le realtà aziendali (conformità, sicurezza e scalabilità) rimanendo open source, ha spiegato Blair. Offre un server self-hosted, strumenti di interfaccia a riga di comando (CLI), integrazioni per l'observability, autorizzazione e scalabilità automatica. Il suo obiettivo è quello di aiutare i team a passare dal prototipo alla produzione senza alcun blocco da fornitore.
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
Agent Stack non riguarda solo la distribuzione, bensì fa parte di un movimento più ampio verso l'interoperabilità. Utilizzando A2A, consente agli agenti di diversi framework di comunicare in modo ottimale.
La Linux Foundation ha recentemente annunciato la nascita della Agentic AI Foundation con il contributo di Anthropic attraverso il suo Model Context Protocol (MCP). "Siamo entusiasti che MCP sia entrato in una governance aperta", ha affermato Blair. "Gli standard comunitari, governati in modo aperto, sbloccheranno più creatività, più innovazione e più soluzioni".
Il progetto A2A sta per arrivare alla sua prima importante release. "Stiamo già vedendo una collaborazione tra A2A e MCP per standardizzare su una singola scheda per descrivere un'entità, che sia uno strumento o una risorsa in MCP o un agente in A2A," ha detto. Blair vede questa scheda unificata come un catalizzatore per l'interoperabilità e l'opportunità di condividere registri, scoperte e utilizzi tra agenti e sistemi agentici.
Consenti agli sviluppatori di creare, distribuire e monitorare agenti AI con lo studio IBM watsonx.ai.
Migliora la produttività con uno dei set di funzionalità più completi del settore che aiuta le aziende a creare, personalizzare e gestire agenti e assistenti AI.
Ottieni un risparmio sui costi di oltre il 90% con i modelli più piccoli e aperti di Granite, progettati per l'efficienza degli sviluppatori. Questi modelli pensati per le imprese offrono prestazioni eccellenti rispetto ai benchmark di sicurezza e in un'ampia gamma di attività aziendali, dalla cybersecurity alla RAG.