I framework Tree of Thoughts (ToT) e Chain of Thoughts (CoT) fungono da algoritmi concettuali per comprendere l'organizzazione e la progressione della generazione di testo nei modelli linguistici (LM) come i trasformatori generativi preaddestrati (ad esempio, GPT-3 e GPT-4). Queste tecniche di prompt fanno parte del prompt engineering, che prevede la creazione di input (prompt) per guidare efficacemente gli LM nella generazione di output preferiti.
Prompt di tree of thoughts: questo framework si basa sulla capacità del modello di generare testo in modo gerarchico, in cui si parte da un argomento o un'idea centrale che porta poi a sottoargomenti e dettagli ramificati. Questo approccio rispecchia il modo in cui un modello può espandersi su un prompt specifico generando testo sempre più specifico e correlato, simile a una struttura ad albero. Consente strategie di lookahead e di ricerca ad albero, in cui il modello può esplorare più rami prima di scegliere un percorso, il che lo rende adatto per la risoluzione di problemi generali e per scenari che richiedono un processo decisionale complesso. Questo metodo incorpora il buon senso e l'euristica per valutare la qualità di ogni ramo. Il meccanismo di autoconsistenza viene utilizzato per fornire valutazioni affidabili richiamando più volte il modello.
Prompt di chain of thoughts: al contrario, questo concetto corrisponde alla capacità del modello di generare testo in modo lineare, da sinistra verso destra, dove ogni token successivo è direttamente influenzato dai token precedenti. Questa progressione sequenziale riflette un approccio più semplice e diretto alla generazione del testo. Il CoT è efficace per le attività che richiedono un flusso logico chiaro e graduale. L'apprendimento istantaneo, in cui al modello vengono forniti alcuni esempi da cui imparare, migliora questo metodo fornendo una comprensione contestuale. Il CoT funge da tecnica di base nel prompt engineering, offrendo un metodo molto più semplice da implementare ma che potrebbe non avere la profondità e la complessità del ToT.
Confronto e applicazioni: sebbene il ToT prompting rappresenti un approccio più complesso e interconnesso alla generazione di testo, utilizzando strategie di ricerca ad albero e lookahead, il CoT riflette una progressione sequenziale più semplice. La natura gerarchica del ToT lo rende adatto a compiti che richiedono l'esplorazione dettagliata di più soluzioni, come gli scenari di apprendimento per rinforzo, in cui il backtracking e le strategie alternative sono fondamentali. La progressione lineare di CoT, invece, è ideale per le attività che richiedono una sequenza di pensieri chiara e logica.
Nelle applicazioni pratiche, le API per gli LM, tra cui GPT-3 e GPT-4, utilizzano tecniche di prompt come ToT e CoT per migliorare le loro prestazioni in diverse attività, dalla scrittura creativa alla risoluzione di problemi complessi.[2] L'ingegneria dei prompt continua ad evolversi, fornendo potenti strumenti per sfruttare le funzionalità dei trasformatori avanzati nei modelli linguistici.