Los métodos basados en la reparametrización, como la adaptación de bajo rango (LoRA), aprovechan la transformación de bajo rango de matrices multidimensionales (como la inmensa matriz de pesos del modelo preentrenados en un modelo de transformador). Estas representaciones de bajo rango omiten información intrascendente multidimensional para capturar la estructura subyacente de menor dimensionalidad de los pesos del modelo, lo que reduce en gran medida el número de parámetros que pueden entrenarse. Esto acelera drásticamente el ajuste fino y reduce la memoria necesaria para almacenar las actualizaciones del modelo.
La LoRA evita la optimización directa de la matriz de pesos del modelo y, en su lugar, optimiza una matriz de actualizaciones de los pesos del modelo (o pesos delta), que se inserta en el modelo. Esa matriz de actualizaciones de pesos se representa, a su vez, como dos matrices más pequeñas (es decir, de menor rango), reduciendo así en gran medida la cantidad de parámetros que se actualizarán, lo que a su vez acelera considerablemente el ajuste fino y reduce la memoria necesaria para almacenar las actualizaciones del modelo. Los pesos del modelo preentrenados permanecen congelados.
Un beneficio adicional de LoRA es que, dado que lo que se optimiza y almacena no son las nuevas ponderaciones del modelo, sino la diferencia (o delta) entre las ponderaciones originales previamente capacitadas y las ponderaciones ajustadas, se pueden "intercambiar diferentes LoRA específicos de la tarea", según sea necesario para adaptar el modelo previamente entrenado, cuyos parámetros reales permanecen sin cambios, a un caso de uso determinado.
Se han desarrollado diversos derivados de la LoRA, como QLoRA, que reduce aún más la complejidad computacional al cuantizar el modelo de transformador antes de la LoRA.