L’hyperparamètre de température du LLM s’apparente à un réglage d’incertitude ou de créativité. L’augmentation de la température augmente la distribution de probabilité des mots suivants qui apparaissent dans la sortie du modèle lors de la génération de texte.
Une température de 1 utilise la distribution de probabilité standard pour le modèle. Les températures supérieures à 1 aplatissent la distribution de probabilité, encourageant le modèle à sélectionner une gamme de tokens plus large. Inversement, les températures inférieures à 1 élargissent la distribution de probabilité, ce qui rend le modèle plus susceptible de sélectionner le token suivant le plus probable.
Une valeur de température proche de 1,0, par exemple 0,8, signifie que le LLM est plus créatif dans ses réponses, mais avec une prévisibilité potentiellement moins importante. En revanche, une température inférieure à 0,2 produira des réponses plus déterministes. Un modèle avec une température basse fournit des sorties prévisibles, voire stables. Des températures plus élevées, proches de 2,0, peuvent commencer à produire une sortie aberrante.
Le cas d’utilisation donne la valeur de température idéale pour un LLM. Un chatbot conçu pour être divertissant et créatif, tel que ChatGPT, a besoin d’une température plus élevée pour créer un texte de type humain. Une application de résumé de texte dans un domaine hautement réglementé tel que le droit, la santé ou la finance exige l’inverse : les résumés de texte générés doivent respecter des exigences strictes.