O prompt da cadeia de pensamento simula processos de raciocínio semelhantes aos humanos, dividindo problemas elaborados em etapas intermediárias e gerenciáveis que levam sequencialmente a uma resposta conclusiva.2 Essa estrutura de resolução de problemas passo a passo visa ajudar a garantir que o processo de raciocínio seja claro, lógico e eficaz.
Em formatos de prompts padrão, a saída do modelo é tipicamente uma resposta direta à entrada fornecido. Por exemplo, pode-se fornecer um prompt de entrada perguntando: "Qual é a cor do céu?", e a IA geraria uma resposta simples e direta, como "O céu é azul."
No entanto, se fosse solicitada a explicar por que o céu é azul usando o prompt da CoT, a IA definiria primeiro o que significa "azul" (uma cor primária). A IA, então, deduziria que o céu parece azul devido à absorção de outras cores pela atmosfera. Essa resposta demonstra a capacidade da IA de construir um argumento lógico.
Para construir um prompt, um usuário normalmente acrescenta uma instrução ao final do prompt. Os usuários geralmente adicionam uma instrução ao prompt, como "descreva suas etapas de raciocínio" ou "explique sua resposta passo a passo". Em essência, essa técnica de engenharia de prompts pede ao LLM para não apenas gerar um resultado, mas também detalhar a série de etapas intermediárias que levaram a essa resposta.3
Encadeamento de prompts é outro método popular usado em aplicações de IA generativa para melhorar a confiabilidade usando múltiplos prompts que se baseiam uns nos outros sequencialmente para dividir tarefas complexas. Técnicas como o encadeamento de prompts e a CoT orientam o modelo para raciocinar por meio de um passo a passo do problema, em vez de avançar para uma resposta que simplesmente parece correta. Esse método também pode ser útil para observabilidade e depuração, pois incentiva o modelo a ser mais transparente em seu raciocínio. A principal diferença entre esses métodos é que o encadeamento de prompts sequencia vários prompts para dividir as tarefas passo a passo, enquanto o prompt da CoT extrai o processo de raciocínio do modelo em um único prompt.