Mein IBM Anmelden Abonnieren

Was ist Prompt Chaining?

23. April 2024

Autoren

Vrunda Gadesha

AI Advocate | Technical Content Author

Eda Kavlakoglu

Program Manager

Prompt Chaining ist eine Technik zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), bei der große Sprachmodelle (Large Language Models, LLMs) eingesetzt werden, die eine gewünschte Ausgabe erzeugen, indem sie einer Reihe von Prompts folgen. Bei diesem Verfahren wird einem NLP-Modell eine Folge von Aufforderungen zur Verfügung gestellt, die es anleitet, die gewünschte Antwort zu geben. Das Modell lernt, den Kontext und die Beziehungen zwischen den Prompts zu verstehen, wodurch es in der Lage ist, kohärenten, konsistenten und kontextreichen Text zu erzeugen.[1].

Das Konzept ist die vorzeitige Umsetzung von Prompt Engineering. Aufgrund seiner Fähigkeit, die Qualität und Kontrollierbarkeit der Textgenerierung zu verbessern, hat es im Bereich der NLP große Aufmerksamkeit erlangt. Eine wirksame Prompt-Kette kann als technische Verfahren im Vergleich zu anderen Ansätzen wie Zero-Shot-, Few-Shot- oder fein abgestimmten kundenspezifischen Modellen eingesetzt werden[2]. Indem es eine klare Richtung und Struktur vorgibt, unterstützt Prompt Chaining das Modell dabei, die Absichten des Benutzers besser zu verstehen und genauere und relevantere Antworten zu produzieren.

Prompt Chaining kann die Effektivität der KI-Assistenz in verschiedenen Bereichen verbessern. Durch die Aufteilung komplexer Aufgaben in kleinere Prompts und deren Verkettung können Entwickler persönlichere und präzisere Antworten erstellen, die auf die Bedürfnisse der einzelnen Benutzer zugeschnitten sind. Dieser Ansatz verbessert nicht nur die allgemeine Benutzererfahrung, sondern ermöglicht auch eine bessere Anpassung an sich ändernde Benutzeranforderungen oder Anwendungsszenarien[3].

Arten von Prompts

Es gibt zwei Haupttypen von Prompts, die bei der Verwendung von LLMs erzeugt werden. Diese sind:

Einfache Prompts

Dabei handelt es sich um einfache Eingabeaufforderungen, die eine einzelne Anweisung oder Frage enthalten. Sie werden in der Regel zur Einleitung eines Gesprächs oder zur Anforderung von Informationen verwendet. Ein Beispiel für eine einfache Aufforderung wäre: „Wie ist das Wetter heute?“

Komplexe Prompts

Diese Prompts enthalten mehrere Anweisungen oder Fragen, die das Modell zur Durchführung einer Reihe von Aktionen oder zu einer detaillierten Antwort auffordern. Sie werden oft zur Erleichterung fortgeschrittener Aufgaben oder zur Vertiefung von Gesprächen verwendet. Ein Beispiel für eine komplexe Aufforderung wäre: „Ich bin auf der Suche nach einem Restaurant, das veganes Essen serviert und bis 22 Uhr geöffnet hat. Können Sie mir eines empfehlen?“

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

So werden komplexe Prompts vereinfacht

Die Umwandlung eines komplexen Prompts in eine Reihe von einfachen Prompts kann dazu beitragen, eine komplexe Aufgabe in kleinere Teilaufgaben zu zerlegen. Auf diese Weise können die Benutzer die für die Bearbeitung einer Anfrage erforderlichen Schritte leichter nachvollziehen und das Risiko von Fehlern oder Missverständnissen verringern.

Ein Beispiel: Sprachübersetzung

Stellen Sie sich ein Szenario vor, in dem uns Informationen in spanischer Sprache vorliegen. Wir müssen die Informationen daraus extrahieren, verstehen aber kein Spanisch. Also müssen wir den Text zunächst vom Spanischen ins Deutsche übersetzen. Dann müssen wir eine Frage stellen, um die Informationen zu extrahieren, und anschließend die extrahierten Informationen erneut vom Deutschen ins Spanische übersetzen. Dies ist eine komplexe Aufgabe. Und wenn wir versuchen, diese Schritte in nur einem Prompt zusammenzufassen, wird es zu komplex und die Wahrscheinlichkeit von Fehlern in der Antwort steigt. Daher ist es am besten, einen komplexen Prompt in eine Folge von einfachen Prompts umzuwandeln. Nachfolgend einige Schritte, die dies ermöglichen:

  1. Identifizieren Sie das Hauptziel des Prompts. 
  2. Teilen Sie das Hauptziel in Teilaufgaben auf, also in spezifischere Aktionen oder Aufgaben.
  3. Erstellen Sie einen Prompt für jede bestimmte Aktion oder Aufgabe.
  4. Stellen Sie sicher, dass jeder Prompt klar, präzise und unmissverständlich ist.
  5. Testen Sie die Prompts, um sicherzustellen, dass sie leicht verständlich und umfassend sind.

Hier lautet unsere komplexe Aufforderung: „Betrachte den gegebenen Text auf Spanisch. Übersetze ihn ins Deutsche. Finde alle Statistiken und Fakten, die in diesem Text verwendet werden, und führe sie als Aufzählungspunkte auf. Übersetze sie erneut ins Spanische.“

Um diesen komplexe Prompt in einfache Aufforderungen umzuwandeln, können wir das Hauptziel in kleinere Aktionen oder Aufgaben aufteilen und eine Kette von Prompts wie unten dargestellt erstellen:

  1. „Lies den angegebenen spanischen Text.“
  2. „Übersetze den Text in die deutsche Sprache.“
  3. „Extrahiere die Statistiken und Fakten aus dem Text.“
  4. „Erstelle eine Liste mit Aufzählungspunkten mit all diesen Fakten.“
  5. „Übersetze sie in die spanische Sprache.“

So gelint der Aufbau einer Prompt-Kette

Eine strukturierte Prompt-Kette ist eine vordefinierte Reihe von Prompts oder Fragen, die einen Benutzer durch ein bestimmtes Gespräch oder eine Reihe von Aktionen führen und einen konsistenten und kontrollierten Informationsfluss gewährleisten[4]. Sie wird häufig im Kundensupport, im Bereich des Tutoring und in anderen interaktiven Systemen verwendet, um Klarheit, Genauigkeit und Effizienz in der Interaktion zu gewährleisten. Die Prompts in einer Kette sind in der Regel miteinander verbunden, damit das System auf früheren Antworten aufbauen und den Kontext wahren kann. Mit diesem Ansatz können Mehrdeutigkeiten reduziert, die Benutzerzufriedenheit erhöht und eine effektivere Kommunikation zwischen Menschen und Maschinen ermöglicht werden.

Aufbau einer Referenzbibliothek mit verschiedenen Prompt-Vorlagen

Beginnen Sie damit, eine Sammlung vorgefertigter Prompts zusammenzustellen, die für verschiedene Szenarien angepasst werden können. Diese Vorlagen sollten gängige Aufgaben, Anfragen und Fragen abdecken, die Benutzern begegnen können.

Definieren der primären Eingaben

Identifizieren Sie die Kernfragen oder Anweisungen, die in der Prompt-Kette vermittelt werden müssen. Diese Prompts sollten einfach, klar und direkt sein und als einzelne Prompts für sich stehen können.

Identifizieren der Inputs und Outputs für die Abfolge der Prompts

Bestimmen Sie die spezifischen Informationen oder Aktionen, die der Benutzer als Antwort auf jeden Prompt eingeben muss. Diese Eingaben sollten klar definiert und einfach zu verstehen sein sowie mit den entsprechenden Prompts in der Prompt-Kette verknüpft werden.

Implementieren der gesamten Prompt-Kette

Verwenden Sie die Referenzbibliothek und die primären Prompts, um die komplette Prompt-Kette aufzubauen. Dabei sollten Sie darauf achten, dass jeder Prompt logisch mit dem nächsten verknüpft ist und dass der Benutzer an den entsprechenden Stellen der Sequenz zu den erforderlichen Eingaben aufgefordert wird.

Testen der Prompt-Kette

Sobald die Prompt-Kette erstellt ist, sollten Sie sie gründlich testen, um sicherzustellen, dass sie leicht zu verstehen und auszuführen ist. Bitten Sie eine Gruppe von Anwendern, die Prompt-Kette zu durchlaufen, und sammeln Sie Feedback zu verbesserungswürdigen Bereichen.

Iterieren und verfeinern der Prompt-Kette

Nehmen Sie auf der Grundlage des während des Tests erhaltenen Feedbacks alle notwendigen Anpassungen oder Verbesserungen an der Prompt-Kette vor. Dies könnte das Umschreiben bestimmter Prompts, das Hinzufügen oder Entfernen von Prompts oder das Ändern der Reihenfolge, in der die Prompts präsentiert werden, beinhalten.

Wenn Sie diese Schritte befolgen, können die Mitarbeitenden im Kundenservice und die Programmierer effektive und effiziente Prompt-Ketten erstellen, die den Benutzer durch eine Reihe von Aktionen oder Aufgaben führen.

Vorteile von Prompt Chaining

Das Prompt Chaining bietet mehrere Vorteile gegenüber herkömmlichen Methoden des Prompt Engineering. Indem das Modell durch eine Reihe von Prompts geführt wird, verbessert das Prompt Chaining die Kohärenz und Konsistenz bei der Textgenerierung. Und das wiederum führt zu genaueren und ansprechenderen Ergebnissen.

Konsistenz

Indem das Modell eine Reihe von Prompts befolgen muss, trägt das Prompt Chaining zur Konsistenz der Textgenerierung bei. Dies ist besonders bei Anwendungen wichtig, bei denen ein einheitlicher Ton, ein einheitlicher Stil oder ein einheitliches Format von entscheidender Bedeutung sind, wie z. B. im Bereich des Kundensupports oder in redaktionellen Zusammenhängen[5].

Im Kundensupport kann das Prompt Chaining zur Sicherstellung einer konsistenten Kommunikation mit dem Benutzer verwendet werden. So kann der Bot beispielsweise aufgefordert werden, den Benutzer mit seinem bevorzugten Namen anzusprechen oder während des gesamten Gesprächs einer bestimmten Tonalität zu folgen.

Erstellen von KI-Assistenten für den Kundenservice mit watsonx assistant
Verbesserte Steuerung

Das Prompt Chaining bietet eine größere Kontrolle über die Textgenerierung und ermöglicht es dem Benutzer, die gewünschte Ausgabe genau zu spezifizieren. Dies ist besonders in Situationen nützlich, in denen die Eingabedaten nicht eindeutig sind, da das Modell vor der Generierung einer Antwort zur Klärung oder Verfeinerung der Eingabe angeleitet werden kann[6].

In einem System zur Textzusammenfassung ermöglicht das Prompt Chaining dem Benutzer, den Detaillierungsgrad und die Spezifität der generierten Zusammenfassung zu steuern. Zum Beispiel könnte der Benutzer zunächst aufgefordert werden, den zusammenzufassenden Inhalt anzugeben (z. B. eine Forschungsarbeit). Anschließend könnte eine Aufforderung folgen, diese Zusammenfassung in einem bestimmten Format oder einer bestimmten Vorlage zu formatieren.

Erfahren Sie, wie Sie mit watsonx.ai Aufgaben zur Textzusammenfassung durchführen können (2:19)
Reduzierte Fehlerrate

Mithilfe des Prompt Chaining lässt sich die Fehlerquote reduzieren, indem dem Modell ein besserer Kontext und gezieltere Eingaben zur Verfügung gestellt werden. Ein strukturiertes Prompt-Chaining ist hilfreich, um den menschlichen Aufwand zu reduzieren und den Code und die Ausgaben schneller zu validieren. Indem die Eingabe in kleinere, überschaubare Prompts unterteilt wird, kann das Modell die Absichten des Benutzers besser verstehen und genauere und relevantere Antworten generieren[7].

In einem System für maschinelle Übersetzung wird der Benutzer vor der Übersetzung eines Satzes möglicherweise zunächst aufgefordert, die Ausgangssprache, die Zielsprache und den relevanten Kontext oder die Terminologie anzugeben. Auf diese Weise kann das Modell den Ausgangstext besser interpretieren und eine genaue Übersetzung erstellen.

Durch die Nutzung dieser Vorteile hat Prompt Chaining das Potenzial, die Leistung und Effektivität von NLP-Modellen in verschiedenen Anwendungen erheblich zu verbessern – vom Kundensupport bis hin zu optimierten redaktionellen Aufgaben und sprachlichen Übersetzungen.

Anwendungsfälle für Prompt Chaining

Das Prompt Chaining ist eine vielseitige Technik, die für eine Vielzahl von Anwendungsfällen eingesetzt werden kann, die hauptsächlich in zwei Kategorien fallen: Beantwortung von Fragen und mehrstufige Aufgaben.

Beantworten von Fragen

Wie der Name bereits andeutet, liefern Aufgaben zur Beantwortung von Fragen die Antworten auf häufig gestellte Fragen, die von Menschen gestellt werden. Das Modell automatisiert die Antwort auf der Grundlage des Kontexts von Dokumenten, die sich normalerweise in einer Wissensdatenbank befinden. Zu den gängigen Anwendungen gehören:

  • Kundenservice/Support: Das Prompt Chaining kann Benutzern bei der Abfrage der Wissensdatenbank eines Unternehmens helfen, um die relevanteste Antwort zu finden, was wiederum die Benutzerfreundlichkeit und Effizienz verbessert[8].
  • Bildungsplattformen: Dozenten können interaktive Lernerfahrungen schaffen, indem sie den Lernenden Fragen stellen, die auf ihren Fortschritten basieren, wodurch personalisiertes und adaptives Lernen ermöglicht wird[9].
  • Forschungsassistenz: Forscher können das Prompt Chaining nutzen, um den Prozess der Suche und Analyse relevanter Literatur zu automatisieren und so Zeit und Ressourcen zu sparen[3][10].

Mehrstufige Aufgaben

Wie zu erwarten, bestehen mehrstufige Aufgaben aus einer Abfolge von Schritten, um ein bestimmtes Ziel zu erreichen. Einige Beispiele hierfür sind:

  • Inhaltserstellung : Das Prompt Chaining kann verschiedene Phasen des Prozesses der Inhaltserstellung rationalisieren, so z. B. die Recherche für ein Thema, die Erstellung einer Gliederung, das Schreiben eines Artikels, die Validierung des Inhalts, die Bearbeitung und mehr[11][12].
  • Programmierentwicklung: Das Prompt Chaining kann Entwickler durch eine Reihe von Schritten leiten, beginnend mit grundlegender Logik, über Pseudocode bis hin zur Implementierung von spezifischem Code in einer bestimmten Sprache, wobei gleichzeitig eine Codevalidierung sichergestellt wird[3][13].
  • Personalisierte Empfehlungen: Dieser Anwendungsfall ist in verschiedenen Branchen anwendbar, in denen Prompt Chaining dabei helfen kann, Empfehlungen auf der Grundlage von Benutzerpräferenzen, Verhalten und historischen Daten anzupassen[14].

Das Prompt Chaining ist eine leistungsstarke Technik, die in einer Vielzahl von Echtzeitanwendungen eingesetzt werden kann, um Benutzer und Experten durch eine Reihe von Aktionen oder Aufgaben zu führen. Durch die Unterteilung komplexer Aufgaben in eine Reihe einfacherer Prompts kann das Prompt Chaining dazu beitragen, dass Benutzer und Experten die Schritte verstehen, die zur Erledigung einer Anfrage erforderlich sind. Das Ergebnis ist eine insgesamt bessere Erfahrung. Ob im Kundenservice, bei der Programmierung oder im Bildungswesen – Prompt Chaining kann zur Vereinfachung komplexer Prozesse beitragen und die Effizienz und Genauigkeit verbessern.

Mixture of Experts | Podcast

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Weiterführende Lösungen

Weiterführende Lösungen

IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Buchen Sie eine Live-Demo
Fußnoten

[1]

Pengfei Liu, W. Y. (2021). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys.

[2]

Gunwoo Yong, K. J. (2022). Prompt engineering for zero‐shot and few‐shot defect detection and classification using a visual‐language pretrained model.

[3]

O. Marchenko, O. R. (2020). Improving Text Generation Through Introducing Coherence Metrics. Cybernetics and Systems Analysis.

[4]

Zhifang Guo, Y. L. (2022). Prompttts: Controllable Text-To-Speech With Text Descriptions. Zhifang Guo, Yichong Leng, Yihan Wu, Sheng Zhao, Xuejiao Tan.

[5]

Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.

[6]

Mero, J. (2018). The effects of two-way communication and chat service usage on consumer attitudes in the e-commerce retailing sector. Electronic Markets.

[7]

Yu Cheng, J. C. (2023). Prompt Sapper: A LLM-Empowered Production Tool for Building AI Chains. ACM Transactions on Software Engineering and Methodology.

[8]

Tongshuang sherry wu, E. J. (2022). PromptChainer: Chaining Large Language Model Prompts through Visual Programming. CHI Conference on Human Factors in Computing Systems – Erweiterte Zusammenfassungen.

[9]

Shwetha Sridharan, D. S. (2021). Adaptive learning management expert system with evolving knowledge base and enhanced learnability. Education and Information Technologies.

[10]

Boshi Wang, X. D. (2022). Iteratively Prompt Pre-trained Language Models for Chain of Thought. Protokolle der Conference on Empirical Methods in Natural Language Processing 2022.

[11]

M. Rice, K. M. (2018). Evaluating an augmented remote assistance platform to support industrial applications. IEEE 4th World Forum on Internet of Things (WF-IoT).

[12]

Cynthia A. Thompson, M. G. (2011). A Personalized System for Conversational Recommendations. J. Artif. Intell. Res.

[13]

Qing Huang, J. Z. (2023). PCR-Chain: Partial Code Reuse Assisted by Hierarchical Chaining of Prompts on Frozen Copilot. IEEE/ACM 45th International Conference on Software Engineering: Companion Proceedings (ICSE-Companion).

[14]

Yafeng Gu, Y. S. (2023). APICom: Automatic API Completion via Prompt Learning and Adversarial Training-based Data Augmentation. Protokolle des 14. asiatisch-pazifischen Symposiums über Internetware.