Was ist LangGraph?

Autoren

Bryan Clark

Senior Technology Advocate

Was ist LangGraph?

LangGraph, entwickelt von LangChain, ist ein Open-Source-KI-Agenten-Framework, das entwickelt wurde, um komplexe generative KI-Agenten-Workflows zu erstellen, bereitzustellen und zu verwalten. Es bietet eine Reihe von Tools und Bibliotheken, die es Benutzern ermöglichen, große Sprachmodelle (LLMs) auf skalierbare und effiziente Weise zu erstellen, auszuführen und zu optimieren. Im Kern nutzt LangGraph die Leistungsfähigkeit graphbasierter Architekturen, um die komplizierten Beziehungen zwischen verschiedenen Komponenten eines KI-Agent-Workflows zu modellieren und zu verwalten.

Was bedeuten all diese Informationen? Das folgende Beispiel soll LangGraph besser verstehen: Denken Sie an diese graphbasierten Architekturen als eine leistungsstarke konfigurierbare Karte, eine „Super-Map“. Benutzer können sich den KI-Workflow als „Der Navigator“ dieser „Super-Map“ vorstellen. In diesem Beispiel ist der Benutzer schließlich „der Kartograph“. In diesem Sinne zeichnet der Navigator die optimalen Routen zwischen Punkten auf der „Super-Map“ auf, die alle von „The Kartographer“ erstellt werden.

Um es noch einmal zusammenzufassen: Optimale Routen innerhalb der graphbasierten Architekturen („Super-Map“) werden mithilfe des KI-Workflows („The Navigator“) aufgezeichnet und untersucht. Diese Analogie ist ein großartiger Ausgangspunkt, um LangGraph zu verstehen – und wenn Sie Karten mögen, dann sind Sie herzlich eingeladen, die Bonusmöglichkeit zu nutzen, wenn jemand das Wort Kartograph verwendet.

LangGraph-Workflow
LangGraph-Workflow

LangGraph beleuchtet die Prozesse innerhalb eines KI-Workflows und ermöglicht so eine vollständige Transparenz des Status des Agenten. Innerhalb von LangGraph dient die Funktion „Zustand“ als Speicherbank, die alle wertvollen Informationen, die vom KI-System verarbeitet werden, aufzeichnet und nachverfolgt. Es ist mit einem digitalen Notebook vergleichbar, bei dem das System Daten erfasst und aktualisiert, während sie verschiedene Phasen eines Workflows durchlaufen.

Wenn Sie beispielsweise Agenten zur Überwachung des Wetters einsetzen, könnte diese Funktion die Anzahl der Schneefälle verfolgen und auf der Grundlage sich ändernder Schneefälle Vorschläge machen. Diese Observability der Funktionsweise des Systems bei der Erledigung komplexer Aufgaben ist für Anfänger nützlich, um mehr über die Zustandsverwaltung zu verstehen. Das Statusmanagement ist beim Debuggen hilfreich, da es die Zentralisierung des Zustands der Anwendung ermöglicht, wodurch häufig der Gesamtprozess verkürzt wird.

Dieser Ansatz ermöglicht eine effektivere Entscheidungsfindung, eine verbesserte Skalierbarkeit und eine verbesserte Leistung. Außerdem ermöglicht es eine intensivere Zusammenarbeit mit Personen, die mit diesen Prozessen noch nicht vertraut sind oder sich ein klareres Bild von den Abläufen hinter den Kulissen wünschen.

LangGraph basiert außerdem auf mehreren Schlüsseltechnologien, darunter LangChain, ein Python-Framework zur Entwicklung von KI-Anwendungen. LangChain enthält eine Bibliothek zum Erstellen und Verwalten von LLMs. LangGraph verwendet auch den Human-in-the-Loop-Ansatz. Durch die Kombination dieser Technologien mit einer Reihe von APIs und Tools bietet LangGraph den Nutzern eine vielseitige Plattform für die Entwicklung von KI-Lösungen und Workflows, einschließlich Chatbots, Zustandsgraphen und anderen agentenbasierten Systemen.

Tauchen Sie tiefer in die Welt von LangGraph ein, indem Sie die Hauptmerkmale, Nutzen und Anwendungsfälle erkunden. Am Ende dieses Artikels werden Sie das Wissen und die Ressourcen haben, um den nächsten Schritt mit LangGraph zu machen.

Die wichtigsten Komponenten von LangGraph

Beginnen wir damit, die Schlüsselkomponenten von LangGraph zu verstehen. Das Framework basiert auf mehreren Schlüsselkomponenten, die zusammenarbeiten, damit Benutzer komplexe KI-Workflows erstellen und verwalten können. Zu diesen Komponenten gehören:

Überwachungsmechanismus

Human-in-the-Loop: Human-in-the-Loop (HITL) bezeichnet die Notwendigkeit menschlicher Interaktion an einem bestimmten Punkt des Prozesses. Im Bereich des maschinellen Lernens (ML) bezeichnet HITL einen kollaborativen Prozess, bei dem Menschen die Rechenleistung von Maschinen erweitern, um fundierte Entscheidungen beim Aufbau eines Modells zu treffen. Durch die Verwendung der wichtigsten Datenpunkte verbessert HITL die Genauigkeit von Algorithmen für maschinelles Lernen und übertrifft damit zufällige Stichprobenverfahren.

Graph-Architektur

Zustandsbehaftete Graphen: Ein Konzept, bei dem jeder Knoten im Graphen einen Schritt in der Berechnung darstellt, wodurch im Wesentlichen ein Zustandsgraph entsteht. Dieser zustandsbehaftete Ansatz ermöglicht es dem Graphen, Informationen über die vorherigen Schritte zu speichern, sodass Informationen im Verlauf der Berechnung kontinuierlich und kontextbezogen verarbeitet werden können. Benutzer können alle zustandsbehafteten Graphen von LangGraph über dessen APIs verwalten.

Zyklischer Graph: Ein zyklischer Graph ist ein Graph, der mindestens einen Zyklus enthält und für die Laufzeit von Agenten unerlässlich ist. Dies bedeutet, dass es einen Pfad gibt, der an demselben Knoten beginnt und endet und innerhalb des Graphen eine Schleife bildet. Komplexe Workflows beinhalten oft zyklische Abhängigkeiten, bei denen das Ergebnis eines Schritts von den vorherigen Schritten in der Schleife abhängt.

Knoten: In LangGraph stellen Knoten einzelne Komponenten oder Agenten innerhalb eines KI-Workflows dar. Knoten können als „Akteure“ betrachtet werden, die auf eine bestimmte Weise miteinander interagieren. Um zum Beispiel Knoten für den Toolaufruf hinzuzufügen, kann man den ToolNode verwenden. Ein weiteres Beispiel, der nächste Knoten, bezieht sich auf den Knoten, der nach dem aktuellen ausgeführt wird.

Edges: Edges sind eine Funktion in Python, die anhand des aktuellen Status bestimmt, welcher Knoten als nächstes ausgeführt werden soll. Edges können bedingte Verzweigungen oder feste Übergänge sein.

Tools

RAG: Retrieval-Augmented Generation (RAG) kombiniert die Leistung von LLMs mit kontextbezogenen Informationen aus externen Quellen, indem relevante Dokumente abgerufen werden, die dann als Eingabe für die Antwortgenerierung verwendet werden.

Workflows: Workflows sind die Sequenzen von Knoteninteraktionen, die einen KI-Workflow definieren. Durch die Anordnung von Knoten in einem Workflow können Benutzer komplexere und dynamischere Workflows erstellen, die Stärken der einzelnen Komponenten nutzen.

APIs: LangGraph bietet eine Reihe von APIs, die es Benutzern ermöglichen, mit seinen Komponenten auf programmatische Weise zu interagieren. Benutzer können einen API-Schlüssel verwenden, neue Knoten hinzufügen, bestehende Workflows ändern und Daten aus einem KI-Workflow abrufen.

LangSmith: LangSmith ist eine spezialisierte API zum Erstellen und Verwalten von LLMs innerhalb von LangGraph. Es bietet Tools zum Initialisieren von LLMs, Hinzufügen von bedingten Edge und Optimieren der Leistung. Durch die innovative Kombination dieser Komponenten können Benutzer anspruchsvollere KI-Workflows erstellen, die Stärken der einzelnen Komponenten nutzen.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Wie LangGraph skaliert

Durch den Einsatz einer graphenbasierten Architektur ermöglicht LangGraph den Nutzern die Skalierung von KI-Workflows, ohne die Effizienz zu verlangsamen oder zu beeinträchtigen. LangGraph nutzt eine verbesserte Entscheidungsfindung durch die Modellierung komplexer Beziehungen zwischen Knoten, d. h. es verwendet KI-Agenten, um ihre vergangenen Aktionen und Feedback zu analysieren. Im Kontext der LLMs wird dieser Prozess als Reflexion bezeichnet.

Verbesserte Entscheidungsfindung: Durch die Modellierung komplexer Beziehungen zwischen Knoten bietet LangGraph ein Framework für den Aufbau effektiverer Entscheidungsfindungssysteme.

Erhöhte Flexibilität: Open-Source-Charakter und modulares Design für Entwickler, um neue Komponenten zu integrieren und bestehende Workflows anzupassen.

Multiagent-Workflows: Komplexe Aufgaben können durch Multiagent-Workflows erledigt werden. Dieser Approach beinhaltet die Erstellung dedizierter LangChain-Agenten für bestimmte Aufgaben oder Domänen. Das Routing von Aufgaben an die entsprechenden LangChain-Agenten ermöglicht die parallele Ausführung und effiziente Verarbeitung verschiedener Workloads. Eine solche Multiagenten-Netzwerkarchitektur ist ein Beispiel für die dezentrale Koordination der Agentenautomatisierung.

Ein großartiges Beispiel von Joao Moura ist die Verwendung von CrewAI mit LangChain und LangGraph. Das Prüfen von E-Mails und das Erstellen von Entwürfen wird automatisiert, wobei CrewAI autonome KI-Agenten orchestriert und ihnen so die Zusammenarbeit und effiziente Ausführung komplexer Aufgaben ermöglicht.

KI-Agenten

5 Arten von KI-Agenten: Autonome Funktionen und Anwendungen in der echten Welt

Erfahren Sie, wie sich zielgerichtete und dienstprogrammbasierte KI an Workflows und komplexe Umgebungen anpassen kann.

Anwendungsfall für LangGraph

Chatbots: Benutzer können eine agentische Anwendung für die Urlaubsplanung mit knotenbasierten Workflows und gerichteten azyklischen Graphen (DAGs) erstellen. Der Chatbot lernt, auf minimale Eingabe zu reagieren und Empfehlungen anzupassen. Derzeit nutzen Dienste wie Simplex von Google LangGraph auf ähnliche Weise, um menschenähnliche Gespräche zu imitieren.

Agentensysteme: LangGraph bietet ein Framework für die Entwicklung agentenbasierter Systeme, die in Anwendungen wie Robotertechnik, autonomen Fahrzeugen oder Videospielen eingesetzt werden können.

LLM-Anwendungen: Mithilfe der Funktionen von LangGraph können Entwickler anspruchsvollere KI-Modelle erstellen, die mit der Zeit lernen und sich verbessern. Norwegian Cruise Line verwendet LangGraph, um KI-Lösungen für Gäste zu kompilieren, zu konstruieren und zu verfeinern. Diese Funktion ermöglicht ein verbessertes und personalisiertes Erfahrung für Gäste.

LLM-Integration in LangGraph

Die Agenten von LangGraph basieren auf den von OpenAI entwickelten GPT-Modellen (Generative Pretrained Transformer) GPT-3.5 und GPT-4. LangGraph und seine Open-Source-Community haben jedoch dazu beigetragen, dass mehrere andere Modelle hinzugefügt wurden, die über die LLM-API-Konfiguration initialisiert werden, darunter Anthropic- und AzureChatOpenAI-Modelle. Die relativ kleine Schleife ähnelt Projekten wie Auto-GPT.

LangGraph bietet auf seiner GitHub-Dokumentenseite ein YouTube-Tutorial an, das die Erkundung der Integration mit Open-Source-LLMs erleichtert. Der erste Schritt zur Integration eines LLM ist die Einrichtung eines Inferenz-Repositorys (Repo) wie LLaMA-Factory, FastChat und Ollama. Dieses Repository ermöglicht die Bereitstellung des entsprechenden LLM-Modells, das über seine Zugangsdaten konfiguriert wird.

Andere KI-Agenten-Frameworks

CrewAI, MetaGPT und AutoGen sind nur einige der Multiagenten-Frameworks, die komplexe Workflows bewältigen können. Dieser Vorgang ermöglicht einen flexibleren und differenzierteren Ansatz zur Bewältigung verschiedener Rechenherausforderungen. Durch die Bereitstellung umfassender Debugging-Funktionen ermöglichen diese Frameworks den Entwicklern, Probleme schnell zu identifizieren und zu beheben, was zu effizienteren Entwicklungs- und Optimierungsprozessen führt.

LangGraph Studio: Eine visuelle Oberfläche für die Workflow-Entwicklung

LangGraph hat auch LangGraph Studio eingeführt, eine visuelle Oberfläche für die Workflow-Entwicklung. Mit LangGraph Studio können Benutzer Workflows über eine grafische Oberfläche entwerfen und erstellen, ohne Code schreiben zu müssen. Die herunterladbare Desktop-Anwendung macht LangGraph Studio für Anfänger benutzerfreundlicher. LangGraph Studio hat außerdem die folgenden zusätzlichen Funktionen zur Verfügung gestellt:

Geringe Lernkurve: LangGraph Studio ist für den Zugriff auf LangGraph nicht erforderlich. Durch die Verwendung der visuellen Oberfläche von LangGraph Studio können sich die Benutzer jedoch auf die Gestaltung ihrer Workflows konzentrieren, ohne sich im Code zu verzetteln.

Verbesserte Zusammenarbeit: LangGraph Studio ermöglicht die gemeinsame Nutzung von Workflows mit anderen, egal ob es sich um ein Entwicklerteam oder einen Kunden handelt.

Debugging: Die Funktionen enden nicht mit der Erstellung eines Diagramms, sondern es sind auch Debugging-Funktionen enthalten, um sicherzustellen, dass das Diagramm genau und zuverlässig ist. LangGraph Studio, mit seiner hochmodernen integrierten Entwicklungsumgebung (IDE), hilft bei der Visualisierung und dem Debuggen von LangGraph-Anwendungen.

Zukünftige Entwicklungen

Verbesserte Verarbeitung natürlicher Sprache (NLP): LangGraph wird über erweiterte NLP-Funktionen verfügen, die es ihm ermöglichen, natürliche Sprache besser zu verstehen und genauere Antworten zu geben.

Verbessertes maschinelles Lernen: LangGraph wird über verbesserte maschinelle Lernfähigkeiten verfügen, sodass es im Laufe der Zeit dazulernen und sich verbessern kann.

Unterstützung für neue Plattformen: LangGraph wird neue Plattformen wie Mobilgeräte und Edge-Computing unterstützen, um seine Technologie zugänglicher zu machen.

Weiterführende Lösungen
Entwicklung von IBM KI-Agenten 

Ermöglichen Sie Entwicklern die Erstellung, Bereitstellung und Überwachung von KI-Agenten mit dem IBM watsonx.ai Studio.

 

watsonx.ai erkunden
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Ganz gleich, ob Sie vorgefertigte Apps und Skills anpassen oder mithilfe eines KI-Studios eigene Agentenservices erstellen und bereitstellen möchten, die IBM watsonx-Plattform bietet Ihnen alles, was Sie brauchen.

Entdecken Sie watsonx Orchestrate watsonx.ai erkunden