ChatPaper.aiChatPaper

SingLoRA: Adaptação de Baixo Rank Utilizando uma Única Matriz

SingLoRA: Low Rank Adaptation Using a Single Matrix

July 8, 2025
Autores: David Bensaïd, Noam Rotstein, Roy Velich, Daniel Bensaïd, Ron Kimmel
cs.AI

Resumo

A Adaptação de Baixa Classificação (LoRA) avançou significativamente o ajuste fino eficiente em parâmetros de grandes modelos pré-treinados. O LoRA aumenta os pesos pré-treinados de um modelo ao adicionar o produto de duas matrizes menores que, juntas, formam uma atualização de matriz de baixa classificação. Pesquisas recentes mostraram que disparidades de escala entre essas duas matrizes frequentemente causam dinâmicas de treinamento instáveis, levando a um desempenho subótimo. Neste artigo, propomos o SingLoRA, que reformula a adaptação de baixa classificação ao aprender a atualização dos pesos como uma decomposição de uma única matriz de baixa classificação multiplicada por sua transposta. Esse design simples remove inerentemente conflitos de escala entre matrizes, garantindo uma otimização estável e reduzindo aproximadamente pela metade a contagem de parâmetros. Analisamos o SingLoRA dentro do framework de redes neurais de largura infinita, mostrando que ele garante a aprendizagem estável de características por construção. Experimentos extensivos em múltiplas tarefas validam esses benefícios. No raciocínio de senso comum, o ajuste fino do LLama 7B no MNLI com SingLoRA alcança 91,3% de precisão - superando o LoRA (89,1%) e o LoRA+ (90,2%) - enquanto utiliza apenas 60% do orçamento de parâmetros deles. Na geração de imagens, o ajuste fino do Stable Diffusion com SingLoRA melhora significativamente a fidelidade das imagens no DreamBooth, alcançando um score de similaridade DINO de 0,151, comparado aos scores de 0,148 e 0,143 para DoRA e LoRA, respectivamente.
English
Low-Rank Adaptation (LoRA) has significantly advanced parameter-efficient fine-tuning of large pretrained models. LoRA augments the pre-trained weights of a model by adding the product of two smaller matrices that together form a low-rank matrix update. Recent research has shown that scale disparities between these two matrices often cause unstable training dynamics, leading to suboptimal performance. In this paper, we propose SingLoRA, which reformulates low-rank adaptation by learning the weights update as a decomposition of a single low-rank matrix multiplied by its transpose. This simple design inherently removes inter-matrix scale conflicts, ensuring stable optimization, and roughly halves the parameter count. We analyze SingLoRA within the infinite-width neural network framework, showing that it guarantees stable feature learning by construction. Extensive experiments on multiple tasks validate these benefits. In common sense reasoning, fine-tuning LLama 7B on MNLI with SingLoRA achieves 91.3% accuracy - surpassing LoRA (89.1%) and LoRA+ (90.2%) - while using only 60% of their parameter budget. In image generation, fine-tuning Stable Diffusion with SingLoRA significantly improves image fidelity on DreamBooth, achieving a DINO similarity score of 0.151, compared to scores of 0.148 and 0.143 for DoRA and LoRA, respectively.
PDF974July 9, 2025