Chain of thought prompting simula procesos de razonamiento similares a los humanos al desglosar problemas elaborados en pasos intermedios manejables que conducen secuencialmente a una respuesta concluyente.2 Esta estructura de resolución de problemas paso a paso tiene como objetivo ayudar a garantizar que el proceso de razonamiento sea claro, lógico y eficaz.
En los formatos de instrucciones estándar, el resultado del modelo suele ser una respuesta directa a la entrada proporcionada. Por ejemplo, se podría proporcionar una entrada que pregunte: "¿De qué color es el cielo?". La IA generaría una respuesta simple y directa, como "El cielo es azul".
Sin embargo, si se le pide que explique por qué el cielo es azul utilizando CoT prompting, la IA primero definiría qué significa "azul" (un color primario). La IA deduciría entonces que el cielo parece azul debido a la absorción de otros colores por la atmósfera. Esta respuesta demuestra la capacidad de la IA para construir un argumento lógico.
Para construir una instrucción, un usuario suele agregar una indicación al final de su instrucción. Los usuarios suelen agregar una indicación a su instrucción, como "describa los pasos de su razonamiento" o "explique su respuesta paso a paso". En esencia, esta técnica de ingeniería de instrucciones le pide al LLM que no solo genere un resultado, sino que también detalle la serie de pasos intermedios que llevaron a esa respuesta.3
El encadenamiento de instrucciones es otro método popular utilizado en aplicaciones de IA generativa para mejorar la confiabilidad mediante el uso de múltiples instrucciones que se basan entre sí secuencialmente para desglosar tareas complejas. Las técnicas como el encadenamiento de instrucciones y CoT guían al modelo para razonar un problema paso a paso en lugar de saltar a una respuesta que simplemente suena correcta. Este método también puede ser útil para la observabilidad y la depuración, ya que fomenta que el modelo sea más transparente en su razonamiento. La principal diferencia entre estos métodos es que el encadenamiento de instrucciones secuencia varias instrucciones para desglosar las tareas paso a paso, mientras que CoT prompting provoca el proceso de razonamiento del modelo dentro de una sola instrucción.