L'iperparametro della temperatura LLM è simile a un quadrante di casualità o creatività. L'aumento della temperatura aumenta la distribuzione di probabilità per le parole successive che appaiono nell'output del modello durante la generazione del testo.
Un'impostazione della temperatura pari a 1 utilizza la distribuzione di probabilità standard per il modello. Temperature superiori a 1 appiattiscono la distribuzione di probabilità, incoraggiando il modello a selezionare una gamma più ampia di token. Al contrario, temperature inferiori a 1 ampliano la distribuzione delle probabilità, rendendo il modello più propenso a selezionare il token successivo più probabile.
Un valore di temperatura più vicino a 1,0, come 0,8, significa che l'LLM diventa più creativo nelle sue risposte, ma con potenzialmente meno prevedibilità. Nel frattempo, una temperatura più bassa di 0,2 produrrà risposte più deterministiche. Un modello a bassa temperatura offre output prevedibili, se stabili. Temperature più elevate, più vicine a 2,0, possono iniziare a produrre output insensati.
Il caso d'uso informa il valore di temperatura ideale per un LLM. Un chatbot progettato per essere divertente e creativo, come ChatGPT, ha bisogno di una temperatura più alta per creare un testo simile a quello umano. Un app di riepilogo testuale in un campo altamente regolamentato come il diritto, lo stato di salute o la finanza richiede il contrario: i riepiloghi testuali generati devono rispettare requisiti rigorosi.