Mari kita pahami tugas analisis sentimen yang memberikan penjelasan yang jelas mengenai mekanisme dan manfaat penyetelan prompt. Misalkan tujuannya adalah untuk mengadaptasi model dengan 175 miliar parameter untuk mengklasifikasikan ulasan film sebagai "positif" atau "negatif". Pendekatan penyempurnaan penuh akan sangat mahal dan lambat. Dengan penyetelan prompt, prosesnya adalah sebagai berikut:
Mulai dengan model terlatih yang dikunci: Model inti 175 miliar parameter tetap tidak tersentuh sama sekali, mempertahankan penyimpanan pengetahuan umum yang sangat banyak yang dipelajari selama prapelatihan.5
Tambahkan prompt vektor: Satu kumpulan kecil vektor yang dapat dilatih (misalnya 20 token virtual) dilekatkan ke penanaman input dari setiap ulasan film. Semua vektor ini bukan teks yang dapat dibaca manusia; mereka merupakan penanaman berkelanjutan yang ada dalam ruang dimensi tinggi yang sama dengan kosakata model (misalnya, ruang dimensi dengan 12.288 elemen numerik untuk model dengan skala ini). Melalui pengoptimalan, semua vektor ini belajar mengodekan sinyal berkelanjutan yang spesifik untuk tugas tertentu, yang mengarahkan perilaku model.
Masukkan input: Misalnya,
[Prompt Vektor] Film ini sangat fantastis!
Dalam contoh ini, misalkan kita menginisialisasi 20 token prompt vektor untuk tugas analisis sentimen. Setelah pelatihan, input mungkin terlihat seperti ini secara internal:
[<v1>, <v2>, <v3>, ... <v20>, The, movie, was, absolutely, fantastic, !]
Di sini, setiap v1 adalah vektor prompt berdimensi tinggi yang dipelajari. Tujuan pelatihan adalah untuk menemukan nilai optimal untuk vektor yang memandu model yang dikunci untuk mengklasifikasikan sentimen teks berikutnya dengan benar.
Hanya melatih prompt vektor: Dengan menggunakan kumpulan data ulasan film yang diberi label, proses pelatihan dimulai. Melalui propagasi balik, gradien kesalahan dihitung tetapi langkah pengoptimalan hanya memperbarui parameter penanaman prompt vektor. Pendekatan ini hanya melibatkan penyetelan beberapa ribu parameter, bukan 175 miliar bobot model.5
Menerapkan dengan modularitas: Setelah pelatihan selesai, kumpulan 20 vektor yang dihasilkan merupakan keseluruhan adaptasi khusus tugas. Untuk mengadaptasi model dasar yang sama untuk tugas yang berbeda, seperti deteksi spam, seseorang cukup melatih serangkaian prompt vektor baru pada kumpulan data spam dan menukarnya pada waktu inferensi
Teknik ini memberikan manfaat efisiensi yang sangat signifikan. Alih-alih menyimpan salinan lengkap model terpisah untuk setiap tugas—model dengan 175 miliar parameter dapat memerlukan penyimpanan hingga 350 GB—kita hanya perlu menyimpan parameter prompt spesifik tugas yang mungkin hanya berukuran beberapa KB.1 Modularitas ini membuat penyetelan prompt menjadi solusi praktis dan hemat biaya untuk adaptasi model berskala besar.2