El hiperparámetro de temperatura de LLM es similar a un dial de aleatoriedad o creatividad. Elevar la temperatura aumenta la distribución de probabilidad de las siguientes palabras que aparecen en la salida del modelo durante la generación de texto.
Un ajuste de temperatura de 1 utiliza la distribución de probabilidad estándar para el modelo. Las temperaturas superiores a 1 aplanan la distribución de probabilidad, lo que incentiva al modelo a seleccionar una gama más amplia de tokens. Por el contrario, las temperaturas inferiores a 1 amplían la distribución de probabilidad, lo que hace que sea más factible que el modelo seleccione el siguiente token más probable.
Un valor de temperatura más cercano a 1.0, como 0.8, significa que el LLM se vuelve más creativo en sus respuestas, pero con potencialmente menos previsibilidad. Mientras tanto, una temperatura más baja de 0.2 producirá respuestas más deterministas. Un modelo con baja temperatura ofrece resultados predecibles, aunque estables. Las temperaturas más altas cercanas a 2.0 pueden comenzar a producir resultados sin sentido.
El caso de uso informa el valor de temperatura ideal para un LLM. Un chatbot diseñado para ser entretenido y creativo, como ChatGPT, necesita una temperatura más alta para crear texto similar al humano. Una aplicación de resúmenes de texto en un campo altamente regulado, como el derecho, el estado o las finanzas, requiere lo contrario: sus resúmenes de texto generados deben cumplir requisitos estrictos.