¿Qué es LangGraph?

Autores

Bryan Clark

Senior Technology Advocate

¿Qué es LangGraph?

LangGraph, creado por LangChain, es un marco de agentes de IA de código abierto diseñado para crear, implementar y gestionar flujos de trabajo complejos de agentes de IA generativa. Proporciona un conjunto de herramientas y bibliotecas que permiten a los usuarios crear, ejecutar y optimizar modelos de lenguaje de gran tamaño (LLM) de forma escalable y eficiente. En esencia, LangGraph utiliza el poder de las arquitecturas basadas en gráficos para modelar y gestionar las intrincadas relaciones entre varios componentes de un flujo de trabajo de agente de IA.

¿Qué significa toda esta información? El siguiente ejemplo puede ofrecer una comprensión más clara de LangGraph: piense en estas arquitecturas basadas en gráficos como un potente mapa configurable, un "supermapa". Los usuarios pueden imaginarse el flujo de trabajo de la IA como "El navegador" de este "Supermapa". Por último, en este ejemplo, el usuario es "El cartógrafo". En este sentido, el navegador traza las rutas óptimas entre puntos en el "Supermapa", todas las cuales son creadas por "El cartógrafo".

En resumen, las rutas óptimas dentro de las arquitecturas basadas en gráficos ("Supermapa") se trazan y exploran utilizando el flujo de trabajo de IA ("El navegador"). Esta analogía es un buen punto de partida para entender LangGraph, y si le gustan los mapas, puede aprovechar la oportunidad adicional de ver a alguien utilizar la palabra cartógrafo.

Flujo de trabajo de LangGraph
Flujo de trabajo de LangGraph

LangGraph ilumina los procesos dentro de un flujo de trabajo de IA, lo que permite una transparencia total del estado del agente. Dentro de LangGraph, la característica de "estado" sirve como un banco de memoria que registra y rastrea toda la información valiosa procesada por el sistema de IA. Es similar a un cuaderno digital en el que el sistema captura y actualiza los datos a medida que se mueve por varias etapas de un flujo de trabajo o análisis gráfico.

Por ejemplo, si estuviera ejecutando agentes para monitorizar el clima, esta característica podría rastrear el número de veces que ha nevado y hacer sugerencias basadas en las tendencias cambiantes de las nevadas. Esta observabilidad de cómo funciona el sistema para completar tareas complejas es útil para que los principiantes comprendan mejor la gestión de estados. La gestión del estado es útil a la hora de depurar, ya que permite centralizar el estado de la aplicación, lo que a menudo acorta el proceso general.

Este enfoque permite una toma de decisiones más eficaz, una mayor escalabilidad y un mejor rendimiento. También permite un mayor compromiso con las personas que podrían ser nuevas en estos procesos o que prefieren una imagen más clara de lo que sucede entre bastidores.

LangGraph también se basa en varias tecnologías clave, incluido LangChain, un marco de Python para crear aplicaciones de IA. LangChain incluye una biblioteca para crear y gestionar LLM. LangGraph también utiliza el enfoque human-in-the-loop. Al combinar estas tecnologías con un conjunto de API y herramientas, LangGraph proporciona a los usuarios una plataforma versátil para desarrollar soluciones de IA y flujos de trabajo, incluidos chatbots, gráficos de estado y otros sistemas basados en agentes.

Profundice en el mundo de LangGraph explorando sus características clave, beneficios y casos de uso. Al final de este artículo, tendrá los conocimientos y los Recursos para Dé el siguiente paso con LangGraph.

Componentes clave de LangGraph

Comencemos por entender primero los componentes clave que componen LangGraph. El marco se basa en varios componentes clave que trabajan juntos para permitir a los usuarios crear y gestionar flujos de trabajo complejos de IA. Estos componentes incluyen:

Mecanismo de seguimiento

Human-in-the-loop: Human-in-the-loop (HITL) se refiere al requisito de interacción humana en algún punto del proceso. En el ámbito de machine learning (ML), HITL se refiere a un proceso colaborativo en el que los humanos aumentan las capacidades computacionales de las máquinas para tomar decisiones informadas mientras construyen un modelo. Al utilizar los puntos de datos más críticos, HITL mejora la precisión de los algoritmos de machine learning, superando los métodos de muestreo aleatorio.

Arquitectura de gráficos

Gráficos con estado: un concepto en el que cada nodo del gráfico representa un paso en el cálculo, esencialmente ideando un gráfico de estado. Este enfoque con estado permite que el gráfico conserve la información sobre los pasos anteriores, lo que permite un procesamiento continuo y contextual de la información a medida que se desarrolla el cálculo. Los usuarios pueden gestionar todos los gráficos con estado de LangGraph con sus API.

Gráfico cíclico: un gráfico cíclico es cualquier gráfico que contiene al menos un ciclo y es esencial para los tiempos de ejecución de los agentes. Esto significa que existe una ruta que comienza y termina en el mismo nodo, formando un bucle dentro del gráfico. Los flujos de trabajo complejos suelen implicar dependencias cíclicas, en las que el resultado de un paso depende de los pasos anteriores del bucle.

Nodos: en LangGraph, los nodos representan componentes o agentes individuales dentro de un flujo de trabajo de IA. Los nodos pueden considerarse "actores" que interactúan entre sí de una manera específica. Por ejemplo, para agregar nodos para llamadas a herramientas, se puede usar el método ToolNode. Otro ejemplo, el siguiente nodo, se refiere al nodo que se ejecutará después del actual.

Edges: Edges es una función dentro de Python que determina qué nodo ejecutar a continuación en función del estado actual. Los edges pueden ser ramas condicionales o transiciones fijas.

Herramientas

RAG: la generación aumentada por recuperación (RAG) combina el poder de los LLM con información contextual de fuentes externas mediante la recuperación de documentos relevantes, que luego se utilizan como entrada para la generación de respuestas.

Flujos de trabajo: los flujos de trabajo son las secuencias de interacciones de nodos que definen un flujo de trabajo de IA. Al organizar los nodos en un flujo de trabajo, los usuarios pueden crear flujos de trabajo más complejos y dinámicos que utilizan las fortalezas de los componentes individuales.

API: LangGraph proporciona un conjunto de API que permiten a los usuarios interactuar con sus componentes de forma programática. Los usuarios pueden utilizar una clave de API, añadir nuevos nodos, modificar los flujos de trabajo existentes y recuperar datos de un flujo de trabajo de IA.

LangSmith: LangSmith es una API especializada para crear y gestionar LLM en LangGraph. Proporciona herramientas para inicializar LLM, añadir aristas condicionales y optimizar el rendimiento. Al combinar estos componentes de forma innovadora, los usuarios pueden crear flujos de trabajo de IA más sofisticados que utilicen los puntos fuertes de los componentes individuales.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Cómo escala LangGraph

Al utilizar una arquitectura basada en gráficos, LangGraph permite a los usuarios escalar los flujos de trabajo de inteligencia artificial sin ralentizar ni sacrificar la eficiencia. LangGraph utiliza una toma de decisiones mejorada mediante el modelado de relaciones complejas entre nodos, lo que significa que utiliza agentes de IA para analizar sus acciones pasadas y sus comentarios. En el mundo de los LLM, este proceso se conoce como reflexión.

Toma de decisiones mejorada: al modelar relaciones complejas entre nodos, LangGraph proporciona un marco para crear sistemas de toma de decisiones más eficaces.

Mayor flexibilidad: naturaleza de código abierto y diseño modular para que los desarrolladores integren nuevos componentes y adapten los flujos de trabajo existentes.

Flujos de trabajo multiagente: las tareas complejas se pueden abordar a través de flujos de trabajo multiagente. Este enfoque implica la creación de agentes dedicados de LangChain para tareas o dominios específicos. El enrutamiento de tareas a los agentes LangChain apropiados permite la ejecución paralela y el manejo eficiente de diversas cargas de trabajo. Esta arquitectura de red multiagente ejemplifica la coordinación descentralizada de la automatización de agentes.

Un gran ejemplo, creado por Joao Moura, es el uso de CrewAI con LangChain y LangGraph. La comprobación de correos electrónicos y la creación de borradores se automatizan con CrewAI que orquesta agentes de IA, lo que les permite colaborar y ejecutar tareas complejas de manera eficiente.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones del mundo real

Descubra cómo la IA basada en objetivos y servicios se adapta a flujos de trabajo y entornos complejos.

Casos de uso de LangGraph

Chatbots: los usuarios pueden crear una aplicación de agencia para la planificación de vacaciones, con flujos de trabajo basados en nodos y gráficos acíclicos dirigidos (DAG). El chatbot aprende a responder a una mínima entrada del usuario y a adaptar las recomendaciones. Actualmente, servicios como Duplex de Google utilizan LangGraph de forma similar para imitar conversaciones humanas.

Sistemas de agentes: LangGraph proporciona un marco para crear sistemas basados en agentes, que pueden utilizarse en aplicaciones como robótica, vehículos autónomos o videojuegos.

Aplicaciones LLM: al utilizar las capacidades de LangGraph, los desarrolladores pueden crear modelos de IA más sofisticados que aprenden y mejoran con el tiempo. Norwegian Cruise Line utiliza LangGraph para compilar, construir y perfeccionar soluciones de IA orientadas a los huéspedes. Esta capacidad permite mejorar y personalizar las experiencias de los huéspedes.

Integración de LLM en LangGraph

Los agentes de LangGraph se basan en la serie de modelos GPT (transformador generativo preentrenado) GPT-3.5 y GPT-4 de OpenAI. Sin embargo, LangGraph y su comunidad de código abierto han contribuido a la adición de varios otros modelos que se inicializan a través de la configuración de la API LLM, incluidos los modelos Anthropic y AzureChatOpenAI. El bucle relativamente pequeño es similar a proyectos como Auto-GPT.

LangGraph ofrece un tutorial de YouTube que facilita la exploración de cómo integrarse con LLM de código abierto en su sitio de documentos de GitHub. El primer paso para integrar un LLM es configurar un repositorio de inferencia (repo) como LLaMA-Factory, FastChat y Ollama. Este repositorio permite la implementación del modelo LLM correspondiente que se configura a través de sus credenciales de API.

Otros marcos de agentes de IA

CrewAI, MetaGPT y AutoGen son solo algunos marcos multiagente que pueden manejar flujos de trabajo complejos. Esta operación permite un enfoque más flexible y matizado para abordar diversos desafíos computacionales. Al proporcionar capacidades integrales de depuración, estos marcos permiten a los desarrolladores identificar y resolver problemas rápidamente, lo que lleva a procesos de desarrollo y optimización más eficientes.

LangGraph Studio: una interfaz visual para el desarrollo de flujos de trabajo

LangGraph también ha presentado LangGraph Studio, una interfaz visual para el desarrollo de flujos de trabajo. Con LangGraph Studio, los usuarios pueden diseñar y crear flujos de trabajo mediante una interfaz gráfica, sin tener que escribir código. La aplicación de escritorio descargable hace que LangGraph Studio sea más útil para principiantes. LangGraph Studio también ha puesto a disposición estas características adicionales:

Curva de aprendizaje poco profunda: no se necesita LangGraph Studio para acceder a LangGraph. Sin embargo, al utilizar la interfaz visual de LangGraph Studio, los usuarios pueden centrarse en diseñar sus flujos de trabajo sin atascarse en el código.

Colaboración mejorada: LangGraph Studio permite compartir flujos de trabajo con otros, ya sea un equipo de desarrolladores o un cliente.

Depuración: las capacidades no terminan con la creación de un gráfico, sino que se incluyen características de depuración para garantizar que el gráfico sea preciso y fiable. LangGraph Studio, con su entorno de desarrollo integrado (IDE) de vanguardia, ayuda a visualizar y depurar aplicaciones LangGraph.

Desarrollos futuros

Procesamiento mejorado del lenguaje natural (PLN): LangGraph tendrá capacidades de PLN más avanzadas, lo que le permitirá comprender mejor el lenguaje natural y proporcionar respuestas más precisas.

Machine learning mejorado: LangGraph tendrá capacidades mejoradas de machine learning, lo que le permitirá aprender y mejorar con el tiempo.

Compatibilidad con nuevas plataformas: LangGraph admitirá nuevas plataformas, como dispositivos móviles y edge computing, para que su tecnología sea más accesible.

Soluciones relacionadas
Desarrollo de agentes de IA de IBM 

Permita a los desarrolladores crear, implementar y monitorizar agentes de IA con el estudio IBM watsonx.ai.

 

Explore watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Tanto si opta por personalizar las aplicaciones y habilidades prediseñadas como si prefiere crear e implementar servicios agentivos personalizados mediante un estudio de IA, la plataforma IBM watsonx le ofrece todo lo que necesita.

Explore watsonx Orchestrate Explore watsonx.ai