Der LLM-Temperaturhyperparameter ähnelt einem Zufalls- oder Kreativitätsregler. Durch die Erhöhung der Temperatur erhöht sich die Wahrscheinlichkeitsverteilung für die nächsten Wörter, die während der Textgenerierung in der Ausgabe des Modells erscheinen.
Bei einer Temperatureinstellung von 1 wird die Standardwahrscheinlichkeitsverteilung für das Modell verwendet. Temperaturen über 1 flachen die Wahrscheinlichkeitsverteilung ab, was das Modell dazu anregt, eine größere Auswahl an Token auszuwählen. Umgekehrt erweitern Temperaturen unter 1 die Wahrscheinlichkeitsverteilung, sodass das Modell mit größerer Wahrscheinlichkeit das wahrscheinlichste nächste Token auswählt.
Ein Temperaturwert näher an 1,0, z. B. 0,8, bedeutet, dass das LLM kreativer reagiert, aber möglicherweise weniger vorhersehbar ist. Eine niedrigere Temperatur von 0,2 führt hingegen zu deterministischeren Antworten. Ein Modell mit niedriger Temperatur liefert vorhersehbare, wenn auch langweilige Ausgaben. Höhere Temperaturen um 2,0 können beginnen, eine unsinnige Ausgabe zu erzeugen.
Der Anwendungsfall gibt den idealen Temperaturwert für ein LLM an. Ein Chatbot, der unterhaltsam und kreativ ist, wie ChatGPT, benötigt eine höhere Temperatur, um menschenähnlichen Text zu erstellen. Eine App zur Zusammenfassung von Texten in einem stark regulierten Bereich wie Recht, Gesundheit oder Finanzen erfordert genau das Gegenteil: Die generierten Textzusammenfassungen müssen strenge Anforderungen erfüllen.