Kegunaan penyetelan instruksi, seperti kebanyakan teknik penyetelan, terletak pada fakta bahwa LLM yang telah dilatih sebelumnya tidak dioptimalkan untuk percakapan atau mengikuti instruksi. Secara harfiah, LLM tidak menjawab perintah: mereka hanya menambahkan teks ke dalamnya. Penyetelan instruksi membantu membuat teks yang ditambahkan lebih berguna.
Proses pra-pelatihan untuk model bahasa autoregresif—LLM yang digunakan untuk menghasilkan teks, seperti Llama 2 dari Meta, GPT dari OpenAI, Gemini dari Google, atau Granite dari IBM—mengoptimalkan LLM ini untuk secara sederhana memprediksi kata berikutnya dalam urutan yang diberikan sampai selesai.
LLMs dilatih sebelumnya menggunakan pembelajaran yang diawasi sendiri pada korpus yang besar dari konten tertulis. Dalam pra-pelatihan, model autoregresif diberikan awal sampel teks dan berulang kali ditugaskan untuk memprediksi kata berikutnya dalam urutan hingga akhir kutipan. Untuk setiap prediksi, kata berikutnya dari contoh kalimat asli berfungsi sebagai “kebenaran dasar.” Melalui algoritma pengoptimalan seperti penurunan gradien yang secara berulang menyesuaikan parameter model—berbagai bobot dan bias yang diterapkan pada operasi matematika yang terjadi di setiap node dalam Neural Networks —dengan cara yang membawa prediksi model lebih dekat ke teks asli, model “mempelajari” pola linguistik dalam data pelatihannya (dan, selanjutnya, “pengetahuan” yang disampaikan dalam pola linguistik tersebut).
Meskipun proses pra-pelatihan ini memberikan kemampuan yang mengesankan untuk menghasilkan teks yang koheren secara linguistik, tetapi hal ini tidak selalu selaras dengan kinerja model dalam memenuhi kebutuhan praktis pengguna. Tanpa penyetelan, model dasar mungkin merespons prompt "ajari saya cara memanggang roti" dengan "di oven rumah." Respons ini tepat secara tata bahasa untuk melengkapi kalimat perintahnya, tetapi tidak sesuai dengan keinginan pengguna.
Namun demikian, pra-pelatihan LLM untuk tujuan tertentu (seperti mengikuti instruksi) tidaklah praktis. Kata "besar" dalam "model bahasa besar" mengacu pada fakta bahwa model-model ini sering kali memiliki miliaran parameter: melatih model-model besar ini dari awal membutuhkan banyak sekali energi, waktu, sumber daya komputasi, dan data pelatihan. Sebaliknya, menyetel LLM yang sudah terlatih membutuhkan data yang jauh lebih sedikit dan, terutama ketika menggunakan metode parameter efficient fine-tuning (PEFT) seperti partial fine-tuning atau low rank adaptation (LoRA), yang hanya membutuhkan sebagian kecil dari tuntutan komputasi.
Meskipun penyetelan dapat dicapai melalui hampir semua paradigma machine learning, termasuk pembelajaran penguatan, pembelajaran semi diawasi, atau pembelajaran mandiri tambahan, penyetelan instruksi memerlukan pembelajaran yang diawasi pada pasangan berlabel(input, output). Yang membedakan penyetelan instruksi dari bentuk penyetelan yang diawasi (SFT) lainnya adalah bahwa sampel input dalam kumpulan data instruksi seluruhnya terdiri dari tugas-tugas yang menyerupai permintaan yang mungkin dibuat pengguna dalam prompt mereka; output menunjukkan respons yang diinginkan terhadap permintaan tersebut. Dalam menyesuaikan bobot model agar output LLM menyerupai contoh dalam kumpulan data instruksi, LLM "belajar" merespons prompt seperti "ajari saya cara memanggang roti" dengan menambahkan teks yang berisi saran aktual untuk memanggang roti.
Dengan demikian, penyetelan instruksi membantu menjembatani kesenjangan antara tujuan dasar model—prediksi kata berikutnya—dan tujuan pengguna agar model mengikuti instruksi dan melakukan tugas-tugas tertentu. Hal ini membuat perilaku model lebih berguna dan dapat diprediksi.