El hiperparámetro de temperatura de LLM es similar a un dial de aleatoriedad o creatividad. El aumento de la temperatura aumenta la distribución de probabilidad de las siguientes palabras que aparecen en el resultado del modelo durante la generación de texto.
Un ajuste de temperatura de 1 utiliza la distribución de probabilidad estándar para el modelo. Las temperaturas superiores a 1 aplanan la distribución de probabilidad, lo que anima al modelo a seleccionar una gama más amplia de tokens. Por el contrario, las temperaturas inferiores a 1 amplían la distribución de probabilidad, lo que hace que el modelo tenga más probabilidades de seleccionar el siguiente token más probable.
Un valor de temperatura más cercano a 1,0, como 0,8, significa que el LLM se vuelve más creativo en sus respuestas, pero con una previsibilidad potencialmente menor. Mientras tanto, una temperatura inferior a 0,2 producirá respuestas más deterministas. Un modelo con baja temperatura ofrece resultados predecibles, aunque serios. Las temperaturas más altas cercanas a 2.0 pueden comenzar a producir resultados sin sentido.
El caso de uso informa el valor de temperatura ideal para un LLM. Un chatbot diseñado para ser entretenido y creativo, como ChatGPT, necesita una temperatura más alta para crear texto similar al humano. Una aplicación de resúmenes de texto en un campo altamente regulado como el derecho, la salud o las finanzas requiere lo contrario: sus resúmenes de texto generados deben cumplir requisitos estrictos.