ChatPaper.aiChatPaper

Genaue und effiziente Zusammenführung von Low-Rank-Modellen im Kernraum

Accurate and Efficient Low-Rank Model Merging in Core Space

September 22, 2025
papers.authors: Aniello Panariello, Daniel Marczak, Simone Magistri, Angelo Porrello, Bartłomiej Twardowski, Andrew D. Bagdanov, Simone Calderara, Joost van de Weijer
cs.AI

papers.abstract

In diesem Beitrag gehen wir auf die Herausforderungen ein, die mit dem Zusammenführen von Low-Rank-Adaptionen großer neuronaler Netzwerke verbunden sind. Mit dem Aufkommen parameter-effizienter Adaptionstechniken wie Low-Rank Adaptation (LoRA) ist das Feinabstimmen von Modellen zugänglicher geworden. Obwohl das Feinabstimmen von Modellen mit LoRA äußerst effizient ist, opfern bestehende Zusammenführungsmethoden oft diese Effizienz, indem sie vollständig dimensionierte Gewichtsmatrizen zusammenführen. Wir schlagen das Core-Space-Zusammenführungsframework vor, das das Zusammenführen von LoRA-adaptierten Modellen innerhalb einer gemeinsamen Ausrichtungsbasis ermöglicht und dadurch die Effizienz der Low-Rank-Adaption bewahrt, während die Genauigkeit über verschiedene Aufgaben hinweg erheblich verbessert wird. Wir liefern zudem einen formalen Beweis, dass die Projektion in den Core-Space keinen Informationsverlust verursacht, und eine Komplexitätsanalyse, die die Effizienzgewinne zeigt. Umfangreiche empirische Ergebnisse demonstrieren, dass Core-Space bestehende Zusammenführungstechniken signifikant verbessert und state-of-the-art Ergebnisse sowohl bei Bild- als auch bei Sprachaufgaben erzielt, während nur ein Bruchteil der Rechenressourcen genutzt wird. Die Codebasis ist verfügbar unter https://github.com/apanariello4/core-space-merging.
English
In this paper, we address the challenges associated with merging low-rank adaptations of large neural networks. With the rise of parameter-efficient adaptation techniques, such as Low-Rank Adaptation (LoRA), model fine-tuning has become more accessible. While fine-tuning models with LoRA is highly efficient, existing merging methods often sacrifice this efficiency by merging fully-sized weight matrices. We propose the Core Space merging framework, which enables the merging of LoRA-adapted models within a common alignment basis, thereby preserving the efficiency of low-rank adaptation while substantially improving accuracy across tasks. We further provide a formal proof that projection into Core Space ensures no loss of information and provide a complexity analysis showing the efficiency gains. Extensive empirical results demonstrate that Core Space significantly improves existing merging techniques and achieves state-of-the-art results on both vision and language tasks while utilizing a fraction of the computational resources. Codebase is available at https://github.com/apanariello4/core-space-merging.
PDF22September 23, 2025