Die Frameworks Tree of Thought (ToT) und Chain of Thought (CoT) dienen als konzeptionelle Algorithmen für das Verständnis der Organisation und des Fortschritts der Textgenerierung in Sprachmodellen (Language Models, LMs) wie generativen vortrainierten Transformern (z. B. GPT-3 und GPT-4). ). Diese Prompting-Techniken sind Teil des Prompt Engineering, bei dem Eingaben (Prompts) erstellt werden, um LMs effektiv bei der Erzeugung der bevorzugten Outputs zu unterstützen.
Gedankenbaum-Prompting: Dieses Framework basiert auf der Fähigkeit des Modells, Texte hierarchisch zu generieren, wobei ein zentrales Thema oder eine Idee zu verzweigten Unterthemen und Details führt. Dieser Ansatz spiegelt wider, wie ein Modell eine bestimmte Eingabe erweitern kann, indem es immer spezifischeren und verwandteren Text generiert, ähnlich einer Baumstruktur. Er ermöglicht Vorausschau- und Baumsuchstrategien, bei denen das Modell mehrere Zweige erkunden kann, bevor es sich für einen Pfad entscheidet, wodurch er sich für allgemeine Problemlösungen und Szenarien eignet, die eine komplexe Entscheidungsfindung erfordern. Diese Methode beinhaltet eine vernünftige Argumentation und Heuristik, um die Qualität der einzelnen Zweige zu bewerten. Der Selbstkonsistenzmechanismus wird eingesetzt, um zuverlässige Bewertungen zu liefern, indem das Modell mehrmals aufgefordert („prompting“) wird.
Gedankenketten-Prompting: Im Gegensatz dazu entspricht dieses Konzept der Fähigkeit des Modells, Text in einer linearen, von links nach rechts verlaufenden Weise zu generieren, wobei jedes nachfolgende Token direkt von den vorhergehenden Token beeinflusst wird Diese sequenzielle Abfolge spiegelt einen einfacheren, geradlinigeren Ansatz zur Textgenerierung wider. CoT ist für Aufgaben geeignet, die einen klaren, schrittweisen logischen Ablauf erfordern. Das Lernen mit wenigen Beispielen, bei dem das Modell mit einigen wenigen Beispielen zum Lernen versorgt wird, kann diese Methode durch die Vermittlung von Kontextwissen verbessern. CoT dient als Basistechnik im Prompt Engineering, das eine grundlegende Methode bietet, die einfacher zu implementieren ist, aber möglicherweise nicht die Tiefe und Komplexität von ToT aufweist.
Vergleich und Anwendungen: Während ToT Prompting einen komplizierteren und vernetzteren Ansatz zur Texterstellung darstellt, spiegelt CoT durch die Verwendung von Baumsuche und Vorausschau-Strategien einen einfacheren, sequentiellen Ablauf wider. Die hierarchische Natur von TOT eignet sich für Aufgaben, die eine detaillierte Untersuchung mehrerer Lösungen erfordern, wie z. B. Szenarien des bestärkenden Lernens, bei denen Rückverfolgung und alternative Strategien von entscheidender Bedeutung sind. Der lineare Die lineare Progression von CoT ist jedoch ideal für Aufgaben, die eine klare, logische Gedankenabfolge erfordern.
In der Praxis verwenden APIs für LM, darunter GPT-3 und GPT-4, Prompting-Techniken wie ToT und CoT, um ihre Leistung bei verschiedenen Aufgaben zu verbessern, vom kreativen Schreiben bis hin zur komplexen Problemlösung.[2] Die Prompt-Technik entwickelt sich ständig weiter und bietet leistungsstarke Tools, um die Fähigkeiten fortschrittlicher Transformatoren in Sprachmodellen zu nutzen.