Los marcos de árbol de pensamientos (ToT) y cadena de pensamientos (CoT) sirven como algoritmos conceptuales para comprender la organización y progresión de la generación de texto en modelos de lenguaje (LM) como transformadores generativos preentrenados (por ejemplo, GPT-3 y GPT-4 ). Estas técnicas de instrucciones forman parte de la ingeniería de instrucciones, que implica la elaboración de entradas (instrucciones) para guiar eficazmente a los LM en la generación de resultados preferidos.
Prompting del árbol de pensamientos: este marco opera con la capacidad del modelo para generar texto jerárquicamente, con un tema o idea central que conduce a subtemas y detalles ramificados. Este enfoque refleja cómo un modelo puede expandir en una instrucción específica generando texto cada vez más específico y relacionado, similar a una estructura de árbol. Permite estrategias de búsqueda anticipada y de árbol, donde el modelo puede explorar múltiples ramas antes de comprometer con una ruta, lo que lo hace adecuado para la resolución general de problemas y escenarios que requieren una toma de decisiones compleja. Este método incorpora razonamiento de sentido común y heurística para evaluar la calidad de cada rama. El mecanismo de autoconsistencia se emplea para proporcionar evaluaciones confiables al aplicar el modelo varias veces.
Instrucciones de la cadena de pensamiento: en contraste, este concepto corresponde a la capacidad del modelo para generar texto de manera lineal, de izquierda a derecha, donde cada token posterior está directamente influenciado por las fichas precedentes.Esta progresión secuencial refleja un enfoque más simple y directo para la generación de texto.CoT es eficaz para tareas que requieren un flujo lógico claro y paso a paso.El aprendizaje de pocas instantáneas, donde se proporciona al modelo algunos ejemplos de los que aprender, puede mejorar este método al proporcionar comprensión contextual.CoT sirve como una técnica de referencia en ingeniería rápida, ofreciendo un método fundamental que es más simple de implementar pero que podría carecer de la profundidad y complejidad de ToT.
Comparación y aplicaciones: si bien las instrucciones de ToT representan un enfoque más complejo e interconectado para la generación de texto, mediante el uso de estrategias de búsqueda de árboles y anticipación, CoT refleja una progresión secuencial más simple. La naturaleza jerárquica de ToT lo hace adecuado para tareas que requieren una exploración detallada de múltiples soluciones, como escenarios de aprendizaje por refuerzo, donde el retroceso y las estrategias alternativas son cruciales. Sin embargo, la progresión lineal de CoT es ideal para tareas que necesitan una secuencia de pensamientos clara y lógica.
En aplicaciones prácticas, las API para LMS, incluidas GPT-3 y GPT-4, emplean técnicas de instrucciones como ToT y CoT para mejorar su rendimiento en diversas tareas, desde la escritura creativa hasta la resolución de problemas complejos.[2] La ingeniería rápida continúa evolucionando y brindando herramientas poderosas para aprovechar las capacidades de los transformadores avanzados en los modelos de lenguaje.