O hiperparâmetro temperatura do LLM é semelhante a um mostrador de aleatoriedade ou criatividade. Aumentar a temperatura aumenta a distribuição de probabilidade para as próximas palavras que aparecem na saída do modelo durante a geração de texto.
Uma configuração de temperatura de 1 usa a distribuição de probabilidade padrão para o modelo. Temperaturas superiores a 1 achatam a distribuição de probabilidade, incentivando o modelo a selecionar uma gama mais ampla de tokens. Por outro lado, temperaturas inferiores a 1 alargam a distribuição de probabilidade, tornando mais provável que o modelo selecione o próximo token mais provável.
Um valor de temperatura mais próximo de 1,0, como 0,8, significa que o LLM fica mais criativo em suas respostas, mas com potencialmente menos previsibilidade. Enquanto isso, uma temperatura mais baixa, de 0,2 produzirá respostas mais determinísticas. Um modelo com baixa temperatura fornece saídas previsíveis, embora contidas. Temperaturas mais elevadas, próximas de 2,0, podem começar a produzir saídas sem sentido.
O caso de uso informa o valor de temperatura ideal para um LLM. Um chatbot projetado para ser divertido e criativo, como o ChatGPT, precisa de uma temperatura mais alta para criar textos semelhantes aos humanos. Um aplicativo de resumo de textos em áreas altamente regulamentadas, como direito, saúde ou finanças, exige o inverso: seus resumos de textos gerados devem cumprir requisitos rigorosos.