Hyperparameter temperatur LLM mirip dengan dial keacakan atau kreativitas. Menaikkan temperatur akan meningkatkan distribusi probabilitas untuk kata-kata berikutnya yang muncul dalam output model selama pembuatan teks.Â
Pengaturan temperatur 1 menggunakan distribusi probabilitas standar untuk model. Temperatur yang lebih tinggi dari 1 meratakan distribusi probabilitas, mendorong model untuk memilih rentang token yang lebih luas. Sebaliknya, temperatur yang lebih rendah dari 1 memperlebar distribusi probabilitas, membuat model lebih mungkin untuk memilih token berikutnya yang paling mungkin.Â
Nilai temperatur yang mendekati 1,0, seperti 0,8, berarti LLM menjadi lebih kreatif dalam merespons, tetapi dengan potensi prediktabilitas yang lebih rendah. Sementara itu, temperatur yang lebih rendah 0,2 akan menghasilkan respons yang lebih deterministik. Model dengan temperatur rendah memberikan output yang dapat diprediksi, jika stabil. Temperatur yang lebih tinggi mendekati 2.0 dapat mulai menghasilkan output yang tidak masuk akal.Â
Contoh penggunaan akan menjadi dasar nilai temperatur ideal untuk LLM. Chatbot yang dirancang untuk menghibur dan kreatif, seperti ChatGPTmembutuhkan temperatur yang lebih tinggi untuk membuat teks yang mirip dengan manusia. Aplikasi ringkasan teks di bidang yang diatur dengan ketat seperti hukum, kesehatan, atau keuangan memerlukan yang sebaliknya—ringkasan teks yang dihasilkan harus mematuhi persyaratan ketat.