Che cos'è LangGraph?

Autori

Bryan Clark

Senior Technology Advocate

Che cos'è LangGraph?

LangGraph, creato da LangChain, è un framework di agenti AI open source progettato per creare, implementare e gestire workflow complessi con agenti di AI generativa. Fornisce una serie di strumenti e librerie che consentono agli utenti di creare, eseguire e ottimizzare modelli linguistici di grandi dimensioni (LLM) in modo scalabile ed efficiente. Fondamentalmente, LangGraph utilizza la potenza delle architetture basate su grafi per modellare e gestire le complesse relazioni tra i vari componenti di un workflow con agenti AI.

Cosa significano tutte queste informazioni? L'esempio seguente può offrire una comprensione più chiara di LangGraph: pensa a queste architetture basate su grafi come una potente mappa configurabile, una "super mappa". Gli utenti possono immaginare il workflow AI come "il navigatore" di questa "super mappa". Infine, in questo esempio, l'utente è "il cartografo". In questo senso, il navigatore traccia i percorsi ottimali tra i punti della "super mappa", tutti creati dal "cartografo".

Riassumendo, i percorsi ottimali all'interno delle architetture basate su grafi ("super mappa") vengono tracciati ed esplorati utilizzando il workflow AI ("il navigatore"). Questa analogia è un ottimo punto di partenza per comprendere LangGraph, e se ti piacciono le mappe, avrai gradito l'opportunità bonus di vedere qualcuno usare la parola "cartografo".

Workflow LangGraph
Workflow LangGraph

LangGraph illumina i processi all'interno di un workflow AI, contribuendo alla piena trasparenza dello stato dell'agente. All'interno di LangGraph, la funzione "stato" funge da banca di memoria che registra e tiene traccia di tutte le informazioni preziose elaborate dal sistema di AI. È simile a un taccuino digitale in cui il sistema acquisisce e aggiorna i dati mentre si sposta tra le varie fasi di un workflow o di un'analisi grafica.

Ad esempio, se gestissi degli agenti per monitorare il tempo meteorologico, questa funzione potrebbe tenere traccia del numero di volte in cui ha nevicato e fornire suggerimenti in base alle mutevoli tendenze delle nevicate. Questa observability del funzionamento del sistema nel completamento di attività complesse è utile per aiutare a chi è alle prime armi a comprendere meglio la gestione dello stato. La gestione dello stato è utile quando si parla di eseguire debug, in quanto consente di centralizzare lo stato dell'applicazione, spesso abbreviando il processo complessivo.

Questo approccio favorisce un processo decisionale più efficace, una migliore scalabilità e prestazioni complessive migliorate. Ciò consente inoltre un maggiore coinvolgimento delle persone che potrebbero non avere familiarità con questi processi o che preferiscono avere un quadro più chiaro di ciò che accade dietro le quinte.

LangGraph si basa anche su diverse tecnologie chiave, tra cui LangChain, un framework Python per lo sviluppo di applicazioni AI. LangChain include una libreria per la creazione e la gestione di LLM. LangGraph utilizza anche l'approccio human-in-the-loop. Combinando queste tecnologie con una serie di API e strumenti, LangGraph offre agli utenti una piattaforma versatile per lo sviluppo di soluzioni e workflow AI, tra cui chatbot, grafi di stato e altri sistemi basati su agenti.

Esplora il mondo di LangGraph esplorandone le caratteristiche principale, i benefici e i caso d'uso. Al termine di questo articolo, disporrai delle conoscenze e delle risorse necessarie per muovere i prossimi passi con LangGraph.

Componenti chiave di LangGraph

Cominciamo comprendendo innanzitutto i componenti chiave di LangGraph. Il framework si basa su diversi componenti chiave che lavorano insieme per consentire agli utenti di creare e workflow AI complessi. Questi componenti sono i seguenti:

Meccanismo di monitoraggio

Human-in-the-loop: human-in-the-loop (HITL) si riferisce alla necessità dell'interazione umana in un determinato punto del processo. Nel campo del machine learning (ML), HITL si riferisce a un processo collaborativo in cui gli esseri umani potenziano le funzionalità delle macchine per prendere decisioni informate durante la costruzione di un modello. Utilizzando i punti dati più critici, l'HITL migliora la precisione degli algoritmi di machine learning, superando i metodi di campionamento casuale.

Architettura a grafi

Grafi con stato: un concetto in cui ogni nodo del grafo rappresenta una fase del calcolo, essenzialmente l'ideazione di un grafo di stato. Questo approccio statistico consente al grafico di conservare le informazioni sui passaggi precedenti, consentendo l'elaborazione continua e contestuale delle informazioni durante lo svolgimento del calcolo. Gli utenti possono gestire tutti i grafi con stato di LangGraph con le sue API.

Grafo ciclico: un grafo ciclico è un grafo che contiene almeno un ciclo ed è essenziale per i tempi di esecuzione degli agenti. Ciò significa che esiste un percorso che inizia e termina nello stesso nodo, formando un anello all'interno del grafo. I workflow complessi spesso implicano dipendenze cicliche, in cui il risultato di un passaggio dipende dai passaggi precedenti del ciclo.

Nodi: in LangGraph, i nodi rappresentano singoli componenti o agenti all'interno di un workflow AI. I nodi possono essere considerati come "attori" che interagiscono tra loro in un modo specifico. Ad esempio, per aggiungere nodi per il lancio degli strumenti, si può usare ToolNode. Un altro esempio, il nodo successivo, si riferisce al nodo che verrà eseguito dopo quello corrente.

Spigoli: gli spigoli sono una funzione all'interno di Python che determina il nodo successivo da eseguire in base allo stato corrente. Gli spigoli possono essere rami condizionali o transizioni fisse.

Strumenti

RAG: retrieval-augmented generation (RAG) combina il potere degli LLM con informazioni contestuali provenienti da fonti esterne recuperando i documenti pertinenti, che vengono poi utilizzati come input per la generazione delle risposte.

Workflow: i workflow sono le sequenze di interazioni dei nodi che definiscono un workflow AI. Organizzando i nodi in un workflow, gli utenti possono creare workflow più complessi e dinamici che sfruttano i punti di forza dei singoli componenti.

API: LangGraph fornisce un set di API che consentono agli utenti di interagire con i suoi componenti in modo programmatico. Gli utenti possono utilizzare una chiave API, aggiungere nuovi nodi, modificare i workflow esistenti e recuperare i dati da un workflow AI.

LangSmith: LangSmith è un'API specializzata per la creazione e la gestione di LLM all'interno di LangGraph. Fornisce strumenti per inizializzare gli LLM, aggiungere spigoli condizionali e ottimizzare le prestazioni. Combinando questi componenti in modi innovativi, gli utenti possono creare workflow AI più sofisticati che sfruttano i punti di forza dei singoli componenti.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Come si scala LangGraph

Utilizzando un'architettura basata su grafi, LangGraph consente agli utenti di scalare workflow AI senza rallentare o sacrificare l'efficienza. LangGraph utilizza un processo decisionale ottimizzato modellando relazioni complesse tra i nodi, il che significa che utilizza gli agenti AI per analizzare le loro azioni e i loro feedback passati. Nel mondo degli LLM questo processo è definito riflessione.

Processo decisionale ottimizzato: modellando relazioni complesse tra i nodi, LangGraph fornisce un framework per la creazione di sistemi decisionali più efficaci.

Maggiore flessibilità: natura open source e design modulare per consentire agli sviluppatori di integrare nuovi componenti e adattare i workflow esistenti.

Flussi di lavoro multiagente: le attività complesse possono essere affrontate tramite workflow multiagente. Questo approccio prevede la creazione di agenti LangChain dedicati per attività o ambiti specifici. L'indirizzamento delle attività agli agenti LangChain appropriati consente l'esecuzione parallela e la gestione efficiente di diversi workload. Tale architettura di rete multiagente esemplifica il coordinamento decentralizzato dell'automazione degli agenti.

Un ottimo esempio, creato da Joao Moura, è l'utilizzo di crewAI con LangChain e LangGraph. Il controllo delle e-mail e la creazione delle bozze sono automatizzati, con crewAI che orchestra agenti AI autonomi, consentendo loro di collaborare ed eseguire attività complesse in modo efficiente.

Agenti AI

5 tipi di agenti AI: funzioni autonome e applicazioni nel mondo reale

Scopri come l'AI basata sugli obiettivi e sulle utilità si adatta ai workflow e agli ambienti complessi.

Casi d'uso di LangGraph

Chatbot: gli utenti possono creare un'applicazione agentica per la pianificazione delle vacanze, con workflow basati su nodi e grafi aciclici diretti (DAG). Il chatbot impara a rispondere a un input minimo dell'utente e a personalizzare i consigli. Attualmente, i servizi come Duplex di Google utilizzano LangGraph in modo simile per imitare le conversazioni umane.

Sistemi di agenti: LangGraph fornisce un framework per la creazione di sistemi basati su agenti, che possono essere utilizzati in applicazioni come robotica, veicoli autonomi o videogiochi.

Applicazioni LLM: utilizzando le funzionalità di LangGraph, gli sviluppatori possono creare modelli AI più sofisticati che apprendono e migliorano nel tempo. Norwegian Cruise Line utilizza LangGraph per compilare, costruire e perfezionare soluzioni AI rivolte ai clienti. Questa funzionalità offre ai clienti esperienze migliorate e personalizzate.

Integrazione di LLM in LangGraph

Gli agenti di LangGraph si basano sulla serie di modelli GPT (Generative Pretrained Transformer) GPT-3.5 e GPT-4 di OpenAI. Tuttavia, LangGraph e la sua comunità open source hanno contribuito all'aggiunta di diversi altri modelli che si inizializzano tramite la configurazione di API LLM, quali i modelli Anthropic e AzureChatOpenAI. Il ciclo relativamente piccolo è simile a progetti come Auto-GPT.

LangGraph offre un tutorial su YouTube che facilita l'esplorazione di come eseguire l'integrazione con gli LLM open source sul suo sito di documenti di GitHub. Il primo passo per l'integrazione di un LLM consiste nella configurazione di un repository (repo) di inferenza come LLaMA-Factory, FastChat e Ollama. Questo repository consente la distribuzione del modello LLM corrispondente configurato tramite le sue credenziali API.

Altri framework di agenti AI

CrewAI, MetaGPT e AutoGen sono solo alcuni dei molti framework multiagente in grado di gestire workflow complessi. Questa operazione consente un approccio più flessibile e dettagliato per affrontare diverse sfide di computing. Fornendo funzionalità di debug complete, questi framework consentono agli sviluppatori di identificare e risolvere rapidamente i problemi, portando a processi di sviluppo e ottimizzazione più efficienti.

LangGraph Studio: un'interfaccia visiva per lo sviluppo di workflow

LangGraph ha anche introdotto LangGraph Studio, un'interfaccia visiva per lo sviluppo di workflow. Con LangGraph Studio, gli utenti possono progettare e creare workflow utilizzando un'interfaccia grafica, senza dover scrivere codice. L'applicazione desktop scaricabile rende LangGraph Studio più facile da usare per chi è alle prime armi. LangGraph Studio ha reso disponibili le seguenti caratteristiche aggiuntive:

Curva di apprendimento ridotta: per accedere a LangGraph, LangGraph Studio non è necessario. Tuttavia, utilizzando l'interfaccia visiva di LangGraph Studio, gli utenti possono concentrarsi sulla progettazione dei propri workflow senza impantanarsi nel codice.

Collaborazione migliorata: LangGraph Studio consente la condivisione dei workflow con altri, che si tratti di team di sviluppatori o clienti.

Debug: le funzionalità non terminano con la creazione di un grafo, in quanto ci sono anche delle funzioni di debug che garantiscono che il grafo sia accurato e affidabile. LangGraph Studio, con il suo ambiente di sviluppo integrato (IDE) all'avanguardia, aiuta a visualizzare le applicazioni LangGraph e di eseguirne il debug.

Sviluppi futuri

Elaborazione del linguaggio naturale (NLP) avanzata: LangGraph avrà funzionalità di NLP più avanzate, che gli consentiranno di comprendere meglio il linguaggio naturale e di fornire risposte più accurate.

Machine learning migliorato: LangGraph avrà capacità di machine learning migliorate, che gli permetteranno di apprendere e migliorare nel tempo.

Supporto di nuove piattaforme: LangGraph supporterà nuove piattaforme, quali dispositivi mobili e edge computing per rendere la tua tecnologia più accessibile.

Soluzioni correlate
Sviluppo di agenti AI IBM 

Consenti agli sviluppatori di creare, distribuire e monitorare agenti AI con lo studio IBM watsonx.ai.

 

Esplora watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Consulenza e servizi sull'AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Prossimi passi

Sia che tu scelga di personalizzare app e competenze precostituite o di creare e implementare servizi di agenti personalizzati utilizzando uno studio di AI, la piattaforma IBM watsonx è la soluzione che fa per te.

Scopri watsonx Orchestrate Esplora watsonx.ai