Prompt Chaining ist eine Technik zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), bei der große Sprachmodelle (Large Language Models, LLMs) eingesetzt werden, die eine gewünschte Ausgabe erzeugen, indem sie einer Reihe von Prompts folgen. Bei diesem Verfahren wird einem NLP-Modell eine Folge von Aufforderungen zur Verfügung gestellt, die es anleitet, die gewünschte Antwort zu geben. Das Modell lernt, den Kontext und die Beziehungen zwischen den Prompts zu verstehen, wodurch es in der Lage ist, kohärenten, konsistenten und kontextreichen Text zu erzeugen.[1].
Das Konzept ist die vorzeitige Umsetzung von Prompt Engineering. Aufgrund seiner Fähigkeit, die Qualität und Kontrollierbarkeit der Textgenerierung zu verbessern, hat es im Bereich der NLP große Aufmerksamkeit erlangt. Eine wirksame Prompt-Kette kann als technische Verfahren im Vergleich zu anderen Ansätzen wie Zero-Shot-, Few-Shot- oder fein abgestimmten kundenspezifischen Modellen eingesetzt werden[2]. Indem es eine klare Richtung und Struktur vorgibt, unterstützt Prompt Chaining das Modell dabei, die Absichten des Benutzers besser zu verstehen und genauere und relevantere Antworten zu produzieren.
Prompt Chaining kann die Effektivität der KI-Assistenz in verschiedenen Bereichen verbessern. Durch die Aufteilung komplexer Aufgaben in kleinere Prompts und deren Verkettung können Entwickler persönlichere und präzisere Antworten erstellen, die auf die Bedürfnisse der einzelnen Benutzer zugeschnitten sind. Dieser Ansatz verbessert nicht nur die allgemeine Benutzererfahrung, sondern ermöglicht auch eine bessere Anpassung an sich ändernde Benutzeranforderungen oder Anwendungsszenarien[3].
Es gibt zwei Haupttypen von Prompts, die bei der Verwendung von LLMs erzeugt werden. Diese sind:
Dabei handelt es sich um einfache Eingabeaufforderungen, die eine einzelne Anweisung oder Frage enthalten. Sie werden in der Regel zur Einleitung eines Gesprächs oder zur Anforderung von Informationen verwendet. Ein Beispiel für eine einfache Aufforderung wäre: „Wie ist das Wetter heute?“
Diese Prompts enthalten mehrere Anweisungen oder Fragen, die das Modell zur Durchführung einer Reihe von Aktionen oder zu einer detaillierten Antwort auffordern. Sie werden oft zur Erleichterung fortgeschrittener Aufgaben oder zur Vertiefung von Gesprächen verwendet. Ein Beispiel für eine komplexe Aufforderung wäre: „Ich bin auf der Suche nach einem Restaurant, das veganes Essen serviert und bis 22 Uhr geöffnet hat. Können Sie mir eines empfehlen?“
Die Umwandlung eines komplexen Prompts in eine Reihe von einfachen Prompts kann dazu beitragen, eine komplexe Aufgabe in kleinere Teilaufgaben zu zerlegen. Auf diese Weise können die Benutzer die für die Bearbeitung einer Anfrage erforderlichen Schritte leichter nachvollziehen und das Risiko von Fehlern oder Missverständnissen verringern.
Stellen Sie sich ein Szenario vor, in dem uns Informationen in spanischer Sprache vorliegen. Wir müssen die Informationen daraus extrahieren, verstehen aber kein Spanisch. Also müssen wir den Text zunächst vom Spanischen ins Deutsche übersetzen. Dann müssen wir eine Frage stellen, um die Informationen zu extrahieren, und anschließend die extrahierten Informationen erneut vom Deutschen ins Spanische übersetzen. Dies ist eine komplexe Aufgabe. Und wenn wir versuchen, diese Schritte in nur einem Prompt zusammenzufassen, wird es zu komplex und die Wahrscheinlichkeit von Fehlern in der Antwort steigt. Daher ist es am besten, einen komplexen Prompt in eine Folge von einfachen Prompts umzuwandeln. Nachfolgend einige Schritte, die dies ermöglichen:
Hier lautet unsere komplexe Aufforderung: „Betrachte den gegebenen Text auf Spanisch. Übersetze ihn ins Deutsche. Finde alle Statistiken und Fakten, die in diesem Text verwendet werden, und führe sie als Aufzählungspunkte auf. Übersetze sie erneut ins Spanische.“
Um diesen komplexe Prompt in einfache Aufforderungen umzuwandeln, können wir das Hauptziel in kleinere Aktionen oder Aufgaben aufteilen und eine Kette von Prompts wie unten dargestellt erstellen:
Eine strukturierte Prompt-Kette ist eine vordefinierte Reihe von Prompts oder Fragen, die einen Benutzer durch ein bestimmtes Gespräch oder eine Reihe von Aktionen führen und einen konsistenten und kontrollierten Informationsfluss gewährleisten[4]. Sie wird häufig im Kundensupport, im Bereich des Tutoring und in anderen interaktiven Systemen verwendet, um Klarheit, Genauigkeit und Effizienz in der Interaktion zu gewährleisten. Die Prompts in einer Kette sind in der Regel miteinander verbunden, damit das System auf früheren Antworten aufbauen und den Kontext wahren kann. Mit diesem Ansatz können Mehrdeutigkeiten reduziert, die Benutzerzufriedenheit erhöht und eine effektivere Kommunikation zwischen Menschen und Maschinen ermöglicht werden.
Beginnen Sie damit, eine Sammlung vorgefertigter Prompts zusammenzustellen, die für verschiedene Szenarien angepasst werden können. Diese Vorlagen sollten gängige Aufgaben, Anfragen und Fragen abdecken, die Benutzern begegnen können.
Identifizieren Sie die Kernfragen oder Anweisungen, die in der Prompt-Kette vermittelt werden müssen. Diese Prompts sollten einfach, klar und direkt sein und als einzelne Prompts für sich stehen können.
Bestimmen Sie die spezifischen Informationen oder Aktionen, die der Benutzer als Antwort auf jeden Prompt eingeben muss. Diese Eingaben sollten klar definiert und einfach zu verstehen sein sowie mit den entsprechenden Prompts in der Prompt-Kette verknüpft werden.
Verwenden Sie die Referenzbibliothek und die primären Prompts, um die komplette Prompt-Kette aufzubauen. Dabei sollten Sie darauf achten, dass jeder Prompt logisch mit dem nächsten verknüpft ist und dass der Benutzer an den entsprechenden Stellen der Sequenz zu den erforderlichen Eingaben aufgefordert wird.
Sobald die Prompt-Kette erstellt ist, sollten Sie sie gründlich testen, um sicherzustellen, dass sie leicht zu verstehen und auszuführen ist. Bitten Sie eine Gruppe von Anwendern, die Prompt-Kette zu durchlaufen, und sammeln Sie Feedback zu verbesserungswürdigen Bereichen.
Nehmen Sie auf der Grundlage des während des Tests erhaltenen Feedbacks alle notwendigen Anpassungen oder Verbesserungen an der Prompt-Kette vor. Dies könnte das Umschreiben bestimmter Prompts, das Hinzufügen oder Entfernen von Prompts oder das Ändern der Reihenfolge, in der die Prompts präsentiert werden, beinhalten.
Wenn Sie diese Schritte befolgen, können die Mitarbeitenden im Kundenservice und die Programmierer effektive und effiziente Prompt-Ketten erstellen, die den Benutzer durch eine Reihe von Aktionen oder Aufgaben führen.
Das Prompt Chaining bietet mehrere Vorteile gegenüber herkömmlichen Methoden des Prompt Engineering. Indem das Modell durch eine Reihe von Prompts geführt wird, verbessert das Prompt Chaining die Kohärenz und Konsistenz bei der Textgenerierung. Und das wiederum führt zu genaueren und ansprechenderen Ergebnissen.
Indem das Modell eine Reihe von Prompts befolgen muss, trägt das Prompt Chaining zur Konsistenz der Textgenerierung bei. Dies ist besonders bei Anwendungen wichtig, bei denen ein einheitlicher Ton, ein einheitlicher Stil oder ein einheitliches Format von entscheidender Bedeutung sind, wie z. B. im Bereich des Kundensupports oder in redaktionellen Zusammenhängen[5].
Im Kundensupport kann das Prompt Chaining zur Sicherstellung einer konsistenten Kommunikation mit dem Benutzer verwendet werden. So kann der Bot beispielsweise aufgefordert werden, den Benutzer mit seinem bevorzugten Namen anzusprechen oder während des gesamten Gesprächs einer bestimmten Tonalität zu folgen.
Das Prompt Chaining bietet eine größere Kontrolle über die Textgenerierung und ermöglicht es dem Benutzer, die gewünschte Ausgabe genau zu spezifizieren. Dies ist besonders in Situationen nützlich, in denen die Eingabedaten nicht eindeutig sind, da das Modell vor der Generierung einer Antwort zur Klärung oder Verfeinerung der Eingabe angeleitet werden kann[6].
In einem System zur Textzusammenfassung ermöglicht das Prompt Chaining dem Benutzer, den Detaillierungsgrad und die Spezifität der generierten Zusammenfassung zu steuern. Zum Beispiel könnte der Benutzer zunächst aufgefordert werden, den zusammenzufassenden Inhalt anzugeben (z. B. eine Forschungsarbeit). Anschließend könnte eine Aufforderung folgen, diese Zusammenfassung in einem bestimmten Format oder einer bestimmten Vorlage zu formatieren.
Mithilfe des Prompt Chaining lässt sich die Fehlerquote reduzieren, indem dem Modell ein besserer Kontext und gezieltere Eingaben zur Verfügung gestellt werden. Ein strukturiertes Prompt-Chaining ist hilfreich, um den menschlichen Aufwand zu reduzieren und den Code und die Ausgaben schneller zu validieren. Indem die Eingabe in kleinere, überschaubare Prompts unterteilt wird, kann das Modell die Absichten des Benutzers besser verstehen und genauere und relevantere Antworten generieren[7].
In einem System für maschinelle Übersetzung wird der Benutzer vor der Übersetzung eines Satzes möglicherweise zunächst aufgefordert, die Ausgangssprache, die Zielsprache und den relevanten Kontext oder die Terminologie anzugeben. Auf diese Weise kann das Modell den Ausgangstext besser interpretieren und eine genaue Übersetzung erstellen.
Durch die Nutzung dieser Vorteile hat Prompt Chaining das Potenzial, die Leistung und Effektivität von NLP-Modellen in verschiedenen Anwendungen erheblich zu verbessern – vom Kundensupport bis hin zu optimierten redaktionellen Aufgaben und sprachlichen Übersetzungen.
Das Prompt Chaining ist eine vielseitige Technik, die für eine Vielzahl von Anwendungsfällen eingesetzt werden kann, die hauptsächlich in zwei Kategorien fallen: Beantwortung von Fragen und mehrstufige Aufgaben.
Wie der Name bereits andeutet, liefern Aufgaben zur Beantwortung von Fragen die Antworten auf häufig gestellte Fragen, die von Menschen gestellt werden. Das Modell automatisiert die Antwort auf der Grundlage des Kontexts von Dokumenten, die sich normalerweise in einer Wissensdatenbank befinden. Zu den gängigen Anwendungen gehören:
Wie zu erwarten, bestehen mehrstufige Aufgaben aus einer Abfolge von Schritten, um ein bestimmtes Ziel zu erreichen. Einige Beispiele hierfür sind:
Das Prompt Chaining ist eine leistungsstarke Technik, die in einer Vielzahl von Echtzeitanwendungen eingesetzt werden kann, um Benutzer und Experten durch eine Reihe von Aktionen oder Aufgaben zu führen. Durch die Unterteilung komplexer Aufgaben in eine Reihe einfacherer Prompts kann das Prompt Chaining dazu beitragen, dass Benutzer und Experten die Schritte verstehen, die zur Erledigung einer Anfrage erforderlich sind. Das Ergebnis ist eine insgesamt bessere Erfahrung. Ob im Kundenservice, bei der Programmierung oder im Bildungswesen – Prompt Chaining kann zur Vereinfachung komplexer Prozesse beitragen und die Effizienz und Genauigkeit verbessern.
Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.
Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.
Erfahren Sie, wie CEOs den Wert, den generative KI schaffen kann, gegen die erforderlichen Investitionen und die damit verbundenen Risiken abwägen können.
Erfahren Sie mehr über grundlegende Konzepte und bauen Sie Ihre Fähigkeiten mit praktischen Übungen, Kursen, angeleiteten Projekten, Tests und mehr aus.
Erfahren Sie, wie Sie generative KI und maschinelles Lernen sicher in Ihr Unternehmen integrieren können.
Möchten Sie eine bessere Rendite für Ihre KI-Investitionen erzielen? Erfahren Sie, wie die Skalierung generativer KI in Schlüsselbereichen Veränderungen vorantreibt, indem Sie Ihre besten Köpfe dabei unterstützen, innovative neue Lösungen zu entwickeln und bereitzustellen.
[1] | Pengfei Liu, W. Y. (2021). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys. |
Gunwoo Yong, K. J. (2022). Prompt engineering for zero‐shot and few‐shot defect detection and classification using a visual‐language pretrained model. | |
O. Marchenko, O. R. (2020). Improving Text Generation Through Introducing Coherence Metrics. Cybernetics and Systems Analysis. | |
Zhifang Guo, Y. L. (2022). Prompttts: Controllable Text-To-Speech With Text Descriptions. Zhifang Guo, Yichong Leng, Yihan Wu, Sheng Zhao, Xuejiao Tan. | |
Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. | |
Mero, J. (2018). The effects of two-way communication and chat service usage on consumer attitudes in the e-commerce retailing sector. Electronic Markets. | |
Yu Cheng, J. C. (2023). Prompt Sapper: A LLM-Empowered Production Tool for Building AI Chains. ACM Transactions on Software Engineering and Methodology. | |
Tongshuang sherry wu, E. J. (2022). PromptChainer: Chaining Large Language Model Prompts through Visual Programming. CHI Conference on Human Factors in Computing Systems – Erweiterte Zusammenfassungen. | |
Shwetha Sridharan, D. S. (2021). Adaptive learning management expert system with evolving knowledge base and enhanced learnability. Education and Information Technologies. | |
Boshi Wang, X. D. (2022). Iteratively Prompt Pre-trained Language Models for Chain of Thought. Protokolle der Conference on Empirical Methods in Natural Language Processing 2022. | |
M. Rice, K. M. (2018). Evaluating an augmented remote assistance platform to support industrial applications. IEEE 4th World Forum on Internet of Things (WF-IoT). | |
Cynthia A. Thompson, M. G. (2011). A Personalized System for Conversational Recommendations. J. Artif. Intell. Res. | |
Qing Huang, J. Z. (2023). PCR-Chain: Partial Code Reuse Assisted by Hierarchical Chaining of Prompts on Frozen Copilot. IEEE/ACM 45th International Conference on Software Engineering: Companion Proceedings (ICSE-Companion). | |
Yafeng Gu, Y. S. (2023). APICom: Automatic API Completion via Prompt Learning and Adversarial Training-based Data Augmentation. Protokolle des 14. asiatisch-pazifischen Symposiums über Internetware. |
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com