Metode berbasis reparameterisasi seperti Low Rank Adaptation (LoRA ) memanfaatkan transformasi peringkat rendah dari matriks berdimensi tinggi (seperti matriks besar bobot model yang telah dilatih sebelumnya dalam model transformator). Representasi peringkat rendah ini menghilangkan informasi dimensi tinggi yang tidak penting untuk menangkap struktur dimensi rendah yang mendasari bobot model, yang sangat mengurangi jumlah parameter yang dapat dilatih. Ini secara dramatis mempercepat penyempurnaan dan mengurangi memori yang diperlukan untuk menyimpan pembaruan model.
LoRA tidak langsung mengoptimalkan matriks bobot model, melainkan mengoptimalkan matriks pembaruan bobot model (atau bobot delta), yang dimasukkan ke dalam model. Matriks pembaruan bobot tersebut, pada gilirannya, direpresentasikan sebagai dua matriks yang lebih kecil (yaitu, peringkat yang lebih rendah), sehingga sangat mengurangi jumlah parameter yang harus diperbarui,—yang, pada akhirnya, secara dramatis mempercepat penyempurnaan dan mengurangi memori yang diperlukan untuk menyimpan pembaruan model. Bobot model terlatih tetap beku.
Manfaat tambahan dari LoRA adalah, karena apa yang dioptimalkan dan disimpan bukanlah bobot model baru, melainkan perbedaan (atau delta) antara bobot asli yang telah dilatih sebelumnya dan bobot yang telah di-tuning, maka LoRA spesifik-tugas yang berbeda dapat “ditukar” sesuai kebutuhan untuk mengadaptasikan model yang telah dilatih sebelumnya, yang parameter aktualnya tidak berubah, ke dalam contoh penggunaan tertentu.
Berbagai turunan LoRA telah dikembangkan, seperti QLoRA, yang selanjutnya mengurangi kompleksitas komputasi dengan mengukur model transformator sebelum LoRA.