Moderne KI-Systeme entwickeln sich über einfache Prompt-Response-Interaktionen hinaus. KI-Agenten von heute können strukturierte, mehrstufige Denkweisen und Entscheidungsfindungen durchführen und komplexe Aufgaben autonom koordinieren. Diese neue Fähigkeit wird als agentischer Workflow bezeichnet – eine leistungsstarke Veränderung im maschinellen Lernen, bei der Agenten eine Reihe von logischen Schritten durcharbeiten, um Probleme effektiver zu lösen.
In diesem Tutorial untersuchen wir, wie Sie solche KI-Agenten-Workflows mithilfe von zwei wichtigen Tools erstellen können: LangGraph, ein Framework zum Erstellen graphbasierter Argumentationspfade und IBM Granite Modelle, ein robustes Modell, das diese Struktur ergänzt. Jeder Schritt im Workflow – ein sogenannter „Knoten“ – wird von einem Agenten bearbeitet, der in der Regel von großen Sprachmodellen unterstützt wird. Diese Agenten verändern ihren Status basierend auf Modell-Ausgaben oder bedingter Logik und bilden ein dynamisches, entscheidungsgesteuertes Diagramm.
Um diese Agenten-Workflows zum Leben zu erwecken, werden wir uns zwei wesentliche Komponenten genauer ansehen: LangGraph und das Granite-Modell.
LangGraph ist ein leistungsstarkes Framework, das die Entwicklung von KI-gestützten Workflows rationalisiert, indem es KI-Modelle als zustandsabhängige Agenten innerhalb eines Berechnungsdiagramms darstellt. Es ermöglicht Entwicklern, skalierbare, modulare Systeme aufzubauen, bei denen jeder Verhaltens- oder Entscheidungspunkt als Knoten im Graphen definiert wird.
Mit LangGraph können Sie:
Multi-Agent-Systeme und Frameworks wie LangGraph strukturieren bei der Anwendung für Aufgaben der generativen KI (gen AI) die Aufgabenausführung in der Regel entweder als sequenzielle oder bedingte Workflows. Egal, ob Sie mit LangChain, IBM Granite-Modellen, den GPT-Modellen von OpenAI oder anderen künstlichen Intelligenztools arbeiten, LangGraph hilft Ihnen, Ihren Workflow zur verbesserten Skalierbarkeit und Leistung zu optimieren.
LangGraph setzt einen modernen Ansatz zur Orchestrierung von KI-Technologien ein, indem es komplexe Workflows in modulare, intelligente Komponenten aufteilt. Im Gegensatz zu traditioneller Automatisierung oder Robotic Process Automation (RPA) ermöglicht LangGraph die dynamische, kontextsensitive Aufgabenausführung durch die Verwendung von Echtzeitlogik und -speicher. Hier sind die vier Schlüsselkomponenten, die dieses Framework ausmachen:
Zusammen befähigen diese Komponenten LangGraph dazu, die Art und Weise zu verändern, wie Unternehmen KI-gestützte Workflows entwerfen und ausführen, um die Lücke zwischen KI und realen Geschäftsprozessen zu schließen.
Granite-4.0-Tiny-Preview, wurde von IBM Research entwickelt und ist ein leichtgewichtiges und dennoch leistungsfähiges Open-Source-Sprachmodell, das zur Lösung komplexer Probleme und praktischer Aufgaben der Verarbeitung natürlicher Sprache (NLP) entwickelt wurde. Granite ist zwar kleiner als kommerzielle Modelle wie GPT-4, aber schnell, effizient und vollständig mit Hugging Face kompatibel, was es zu einer großartigen Wahl für Entwickler macht, die betriebliche Effizienz ohne Leistungseinbußen anstreben.
Granite zeichnet sich aus durch:
In diesem Tutorial spielt das Granite-Modell eine wichtige Rolle in verschiedenen Phasen des agentischen Workflows und unterstützt sowohl die Problemlösung als auch die Inhaltserstellung. Aufgrund seines leichtgewichtigen Designs eignet es sich für reale Anwendungen, bei denen menschliche Eingriffe begrenzt und skalierbare Entwurfsmuster für die Erstellung effektiver KI-Lösungen für verschiedene Datensätze und Anbieter unerlässlich sind.
In diesem Tutorial erstellen wir einen agentischen Workflow, der als kreativer Assistent für das Schreiben kurzer animierter Drehbücher dient.
Je nach Geschichtenentwurf des Benutzers kann der Agent:
Dieser Anwendungsfall veranschaulicht sowohl die Argumentationsfunktionen als auch die generativen Fähigkeiten eines Sprachmodells, das durch den kompositorischen Workflow von LangGraph strukturiert ist.
Jeder der folgenden Schritte wird als LangGraph-Knoten implementiert:
Diese Knoten sind sekundär in einem LangGraph verbunden und das Modell bewegt sich durch sie, während es ein veränderliches Zustandsverzeichnis verschiebt.
Dieser Workflow schafft ein Gleichgewicht zwischen kreativer Generierung und struktureller Planung. Es werden die folgenden Beispiele demonstriert:
Es lässt sich auch gut skalieren. Sie können es leicht erweitern, indem Sie Überarbeitungsschritte, mehrere Szenengeneratoren oder sogar zeichenbasierte Verzweigungen hinzufügen.
Sie benötigen ein IBM Cloud-Konto für das Erstellen eines watsonx.ai Projekts.
Sie können zwar aus mehreren Tools wählen, aber dieses Tutorial führt Sie durch die Einrichtung eines IBM Kontos für die Verwendung eines Jupyter Notebook.
Dieser Schritt öffnet eine Notebook-Umgebung, in die Sie den Code aus diesem Tutorial kopieren können. Alternativ können Sie dieses Notebook auf Ihr lokales System herunterladen und als Asset in Ihr watsonx.ai Projekt hochladen. Weitere Granite-Tutorials finden Sie in der IBM Granite-Community. Dieses Tutorial ist auch auf GitHub verfügbar.
Diese Zelle installiert die Kernbibliotheken, die für die Verwendung des auf Hugging Face gehosteten IBM Granite-Modells erforderlich sind:
Die
Hinweis: Wenn Sie dieses Tutorial in einer virtuellen Umgebung ausführen und langgrapg nicht vorinstalliert haben, verwenden Sie pip install langgraph , um es in Ihrer lokalen Umgebung zu installieren.
Diese Zelle importiert alle Kernbibliotheken, die zum Erstellen und Ausführen des Agenten-Workflows benötigt werden:
Zusammen bereiten diese Importe die Umgebung für die Modellinteraktion, die Strukturierung von Workflows und die Ausgabepräsentation vor.
Diese Zelle lädt das IBM
Die
In diesem Schritt wird das Granite-Modell als „Argumentations-Engine“ hinter unserem agentischen Workflow initialisiert.
Diese Funktion
Wesentliche Details:
Diese Funktion wird im gesamten agentischen Workflow wiederverwendet, um das Granite-Modell an verschiedenen Entscheidungs- oder Generierungsknoten aufzurufen.
Diese Funktion
Eingabe:
Prompt-Erstellung: Der Prompt fordert das Modell auf:
Textgenerierung: Der Prompt wird an die
Output-Parsing: Eine einfache Schleife extrahiert das Genre und den Ton aus der Antwort des Modells auf der Grundlage von Zeilenpräfixen (
Statusaktualisierung: Die extrahierten
Dieser Knotenpunkt fungiert als kreatives Klassifikationsmerkmal und ermöglicht es nachfolgenden Knotenpunkten, kontextuell abgestimmte Umrisse, Strukturen und Szenen zu erzeugen, indem Stil und Ton als grundlegende Parameter verwendet werden.
Die
Eingabe: Die Funktion empfängt das Zustandsverzeichnis mit:
Prompt-Erstellung: Das Modell wird angewiesen:
Textgenerierung: Der Prompt wird gesendet an
Statusaktualisierung: Der generierte Handlungsüberblick wird dem Zustand unter dem Schlüssel hinzugefügt
Dieser Knotenpunkt übersetzt die abstrakte kreative Absicht in eine erzählerische Skizze und bietet ein Gerüst für die folgende detaillierte Drei-Akt-Struktur. Er stellt sicher, dass die nachgelagerten Knoten von einer kohärenten, einfallsreichen Ausgangsbasis arbeiten.
Die
Eingabe: Der Knoten verwendet das Zustandsverzeichnis, das nun Folgendes enthält:
Prompt-Erstellung: Das Modell wird angewiesen:
Szenenanforderungen:
Textgenerierung:
Zustandsaktualisierung: Die generierte Szene wird dem Zustandsverzeichnis unter dem
Es integriert narrative Immersion und visuelles Storytelling in den Workflow. Anstatt die Geschichte nur zusammenzufassen, erweckt dieser Knoten sie mit sensorischen und emotionalen Details zum Leben – eine wichtige Voraussetzung für das Schreiben von animierten Kurzfilmen.
Die
Eingabe: Der Knoten erwartet, dass der Zustand
Prompt-Erstellung: Das Modell wird angewiesen:
Richtlinien für den Dialog:
Generieren: Die
Zustandsaktualisierung: Der Dialog wird in dem Zustand unter dem
Diese Hilfsfunktion
Zweck der Funktion: Umschließen Sie einen Knoten (z. B. generat_scene_node) mit einem Decorator, der Folgendes protokolliert:
Parameter
Interner Wrapper:
Gibt zurück: Eine modifizierte Version der Funktion, die Fortschrittsmeldungen hinzufügt, sich aber ansonsten identisch verhält.
Wenn Workflows wachsen, ist es wichtig, zu verfolgen, welcher Schritt ausgeführt wird, insbesondere wenn einige Schritte (wie das Generieren oder Bearbeiten) länger dauern oder Probleme wie Speicherüberlastung verursachen können. Dieser Fortschrittswrapper sorgt für Transparenz und ist hilfreich für das Debugging und die Laufzeitdiagnose.
Diese Zelle definiert die Workflow-Logik für die Erstellung einer kurzen animierten Geschichte mithilfe von LangGraph, einem auf kompositorischen Diagrammen basierenden Programmier-Framework, das für LLM-Workflows entwickelt wurde. Jeder Schritt in der Grafik stellt eine kreative Aufgabe dar und wird in einer bestimmten Reihenfolge ausgeführt, um das endgültige Szenario zu produzieren.
Komponenten des Workflows:
Knotenregistrierung mit Fortschrittsverfolgung: Jeder Schritt (Genreauswahl, Übersichtsgenerierung, Szenenschreiben, Dialogschreiben) wird als Knoten mit dem with_progress() Wrapper hinzugefügt -
Dieser Ansatz stellt sicher, dass jeder Knoten bei der Ausführung seine Laufzeit und seinen Fortschritt protokolliert.
Workflow-Edges (Knotensequenz): Die Abfolge der kreativen Pipeline ist klar definiert:
Diese Struktur ermöglicht einen modularen, lesbaren und fehlerbeseitigenden LLM-Workflow. Jede Phase in Ihrem kreativen Prozess ist isoliert, kann separat profiliert und später ausgetauscht oder erweitert werden (z. B. durch Hinzufügen eines Schritts „Szene überarbeiten“ oder eines Knotens „Ausgabe zusammenfassen“). Die
In dieser letzten Codezelle führen Sie den gesamten kreativen Workflow aus und zeigen die Ergebnisse jeder Phase der Geschichtenverfassung an.
Ergebnisse anzeigen: Das Endzustandsverzeichnis enthält nun Schlüssel, die von verschiedenen Knoten aufgefüllt wurden:
Dieser Abschnitt zeigt, wie die Absicht des Benutzers durch einen schrittweisen, modularen LLM-Workflow in ein vollständiges Minidrehbuch umgewandelt wird. Es handelt sich um eine durchgängige kreative Pipeline, die interaktiv, interpretierbar und anpassbar ist.
Hinweis: Die Ausführung des Codes dauert etwa 15–17 Minuten, wenn Sie GPU oder TPU verwenden. In einer lokalen virtuellen Umgebung wird es etwa 65 bis 70 Minuten dauern, bis die Ausgabe ausgeführt und generiert ist, basierend auf der für die Ausführung des Cedes verwendeten Infrastruktur.
Sehen wir uns an, wie das System den Prompt des Benutzers – „Ich möchte eine skurrile Fantasy-Geschichte für Kinder schreiben über einen verlorenen Drachen, der wieder nach Hause findet“ – in eine vollständige animierte Geschichte umwandelt. Jeder Schritt baut auf dem vorherigen auf, wird von den kreativen Knotenpunkten des Workflows gesteuert und durch das Granite-Modell unterstützt.
1. Genre und Tonfall. Der Workflow beginnt mit der Interpretation der ursprünglichen Prompts des Benutzers: Ich möchte eine skurrile Fantasy-Geschichte für Kinder über einen verlorenen Dritten schreiben, der wieder nach Hause findet. Basierend auf dieser Eingabe klassifiziert der select_genre_node die Erzählung korrekt als skurrile Fantasy und ermittelt den passenden bezaubernden und herzlichen Ton. Dieses Ergebnis ist korrekt und auf den Kontext abgestimmt, da die Verwendung von Ausdrücken wie „skurril“ „für Kinder“ und „verlorener Drache findet wieder nach Hause“ eindeutig auf einen magischen und dennoch sanften Erzählstil hindeutet. Stilrichtung und Ton sind grundlegende Parameter, die jeden weiteren Schritt im Workflow prägen.
2. Inhaltsgliederung und Charakterbeschreibungen. Im nächsten Schritt wird das Modell gebeten, einen Handlungsentwurf zu erstellen, der auf dem identifizierten Stil, dem Ton und der ursprünglichen Idee des Benutzers basiert. Die Ausgabe beinhaltet nicht nur eine Zusammenfassung der Geschichte in 3–5 Sätzen, sondern auch zusätzliche Charakterbeschreibungen, wahrscheinlich aufgrund eines Prompt-Lecks oder der Beibehaltung der Formatierung von Anweisungen aus früheren Iterationen.
Die Handlung dreht sich um ein Mädchen namens Lily, das einen verwundeten Dritten entdeckt und ihm mithilfe eines alten Kräuterkundigen bei der Rückkehr in den Zauberwald hilft. Diese Handlung spiegelt genau die Absicht des Nutzers wider – sie konzentriert sich auf eine kinderfreundliche magische Reise mit emotionalen Untertönen über Heilung, Zugehörigkeit und Freundschaft. Die Charakterskizzen des Drachens, Lilys und des Kräuterkundigen sorgen für Tiefe und verwandeln eine vage Idee in ein strukturiertes Konzept mit definierten Rollen, Persönlichkeiten und erzählbaren Verantwortlichkeiten. Dieser Schritt stellt sicher, dass sich die Geschichte von der abstrakten Absicht zu einer konkreten Struktur verschiebt, die sich für die Adaption für die Leinwand eignet.
3. Schlüsselszene. Angesichts der vollständigen Handlungsübersicht würde das
Der gewählte Moment ist der, in dem Lily den verwundeten Drachen im verzauberten Wald pflegt und so eine emotionale Beziehung und gegenseitiges Verständnis zwischen den Figuren herstellt. Dieser Moment ist kritisch, da er die Geschichte auf die Heimkehr des Drachen ausrichtet. Die Szene ist voller Bildern und Emotionen, hält sich an die „verspielten“ und „herzerwärmenden“ Beschränkungen und ist gleichzeitig visuell ausdrucksstark – perfekt geeignet für ein kurzes animiertes Format.
Die Fähigkeit des Modells, die Konstanz von Ton und Stil über alle Phasen hinweg beizubehalten, zeigt den Wert des Workflows von LangGraph und die Funktionen des Granite-Modells.
4. Dialog im Drehbuchformat. Schließlich wird die
Jede Phase des Workflows übersetzt den ursprünglichen Prompt – „eine skurrile Fantasy-Geschichte für Kinder über einen verlorenen Drachen, der wieder nach Hause findet“ – in eine strukturierte, kreative und ausdrucksstarke narrative Ausgabe. Von der Genreauswahl bis zur Dialogformatierung baut das System schrittweise einen kohärenten Erzählbogen auf. Das LangGraph-Framework stellt sicher, dass die Übergänge zwischen den Aufgaben logisch miteinander verbunden sind, und das IBM Granite-Modell ermöglicht eine kontextabhängige Texterstellung mit einem einheitlichen Ton. Das Ergebnis ist eine kompakte, bildschirmtaugliche kurze Animationsgeschichte, die vollständig aus einer einzeiligen Benutzereingabe entsteht und die praktische Nutzbarkeit von agentischen Workflows in kreativen KI-Anwendungen demonstriert.
Um das Erzählen noch spannender zu machen, finden Sie hier eine einfache HTML-basierte Visualisierung, die generierte Story-Elemente – Genre, Ton, Handlung, Szene und Dialog – ansprechend formatiert. Außerdemkönnen Sie mit nur einem Klick das gesamte Skript als Textdatei zur späteren Verwendung oder Weitergabe herunterladen. Lassen Sie uns die Geschichte auf der Leinwand zum Leben erwecken!
Dieses Tutorial verwendet das Granite-4.0-Tiny-Preview Modell für die Textgenerierung. Obwohl es sich um eines der kleineren Modelle der Granite-Familie handelt, ist eine GPU-fähige Umgebung erforderlich, damit es effizient funktioniert – insbesondere bei der Ausführung mehrerer Knoten in einem LangGraph-Workflow.
Empfohlene Einrichtung:
Leistungshinweise:
Wenn Sie dieses Tutorial in einer gehosteten Notebook-Umgebung (z. B. IBM watsonx.ai oder Google Colab Pro) ausführen, stellen Sie sicher, dass die GPU in den Laufzeiteinstellungen aktiviert ist.
Berücksichtigen Sie bei ressourcenarmen Umgebungen Folgendes:
In diesem Tutorial haben wir einen modularen, agentischen Storytelling-Workflow mit LangGraph und IBMs Granite-4.0-Tiny-Preview Sprachmodell erstellt. Ausgehend von einem einfachen kreativen Prompt haben wir Schritt für Schritt eine Pipeline entwickelt, die Stil und Ton klassifiziert, einen Handlungsentwurf entwickelt, eine Schlüsselszene schreibt und mit einem Dialog im Drehbuchstil endet. Auf dem Weg dorthin haben wir gezeigt, wie Sie:
Dieses Framework eignet sich nicht nur für das Verfassen von Drehbüchern, sondern kann auch auf eine Vielzahl kreativer oder aufgabenbezogener Anwendungsfälle erweitert werden. Mit nur wenigen Knotenpunkten haben Sie einen Miniatur-Schreibassistenten entwickelt, der eine skurrile Idee in eine drehbuchreife Geschichte verwandelt.
Egal, ob Sie Entwickler, Geschichtenerzähler oder Forscher sind – dieses Tutorial bietet Ihnen eine praktische Grundlage, um LLM-basiertes Workflow-Engineering in kreativen Bereichen zu erkunden.
Sind Sie bereit, Ihre eigenen Agenten zu erstellen? Lassen Sie Ihrer Kreativität freien Lauf mit IBM Granite-Modellen und IBM watsonx Orchestrate.
Entwickeln, implementieren und verwalten Sie leistungsstarke KI-Assistenten und -Agenten, die Workflows und Prozesse mit generativer KI automatisieren.
Gestalten Sie die Zukunft Ihres Unternehmens mit KI-Lösungen, denen Sie vertrauen können.
Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.
1 Lang Cao. 2024. GraphReason: Enhancing Reasoning Capabilities of Large Language Models through A Graph-Based Verification Approach. In Proceedings of the 2nd Workshop on Natural Language Reasoning and Structured Explanations (@ACL 2024), Seiten 1–12, Bangkok, Thailand. Association for Computational Linguistics.