Métodos baseados em reparametrização, como Adaptação de Baixa Classificação (LoRA), utilizam a transformação de baixa classificação de matrizes de alta dimensão (como a enorme matriz de pesos de um modelo treinado previamente em um modelo transformador). Essas representações de baixa classificação omitem informações irrelevantes de alta dimensão para capturar a estrutura subjacente de baixa dimensão dos pesos do modelo, reduzindo muito o número de parâmetros treináveis. Isso acelera drasticamente o ajuste fino e reduz a memória necessária para armazenar as atualizações do modelo.
A LoRA evita a otimização direta da matriz de pesos do modelo e, em vez disso, otimiza uma matriz de atualizações dos pesos do modelo (ou pesos delta), que é inserida no modelo. Essa matriz de atualizações de peso é, por sua vez, representada como duas matrizes menores (isto é, de classificação inferior), reduzindo bastante o número de parâmetros a serem atualizados, o que por sua vez acelera drasticamente o ajuste fino e reduz a memória necessária para armazenar atualizações do modelo. Os próprios pesos do modelo treinado previamente permanecem congelados.
Um benefício adicional da LoRA é que, como o que está sendo otimizado e armazenado não são novos pesos do modelo, mas sim a diferença (ou delta) entre os pesos pré-treinados originais e os pesos ajustados, diferentes LoRAs específicas da tarefa podem ser "trocadas" conforme necessário para adaptar o modelo pré-treinado, cujos parâmetros reais permanecem inalterados, a um determinado caso de uso.
Diversos derivados da LoRA foram desenvolvidos, como a QLoRA, que reduz ainda mais a complexidade computacional quantificando o modelo do transformador antes do LoRA.