Fusión Precisa y Eficiente de Modelos de Bajo Rango en el Espacio Central
Accurate and Efficient Low-Rank Model Merging in Core Space
September 22, 2025
Autores: Aniello Panariello, Daniel Marczak, Simone Magistri, Angelo Porrello, Bartłomiej Twardowski, Andrew D. Bagdanov, Simone Calderara, Joost van de Weijer
cs.AI
Resumen
En este artículo, abordamos los desafíos asociados con la fusión de adaptaciones de bajo rango en redes neuronales grandes. Con el auge de las técnicas de adaptación eficientes en parámetros, como la Adaptación de Bajo Rango (LoRA), el ajuste fino de modelos se ha vuelto más accesible. Si bien el ajuste fino de modelos con LoRA es altamente eficiente, los métodos de fusión existentes a menudo sacrifican esta eficiencia al fusionar matrices de pesos de tamaño completo. Proponemos el marco de fusión Espacio Central (Core Space), que permite la fusión de modelos adaptados con LoRA dentro de una base de alineación común, preservando así la eficiencia de la adaptación de bajo rango mientras se mejora sustancialmente la precisión en diversas tareas. Además, proporcionamos una prueba formal de que la proyección en el Espacio Central garantiza que no se pierda información y presentamos un análisis de complejidad que muestra las ganancias en eficiencia. Los resultados empíricos extensos demuestran que Espacio Central mejora significativamente las técnicas de fusión existentes y logra resultados de vanguardia tanto en tareas de visión como de lenguaje, utilizando una fracción de los recursos computacionales. El código está disponible en https://github.com/apanariello4/core-space-merging.
English
In this paper, we address the challenges associated with merging low-rank
adaptations of large neural networks. With the rise of parameter-efficient
adaptation techniques, such as Low-Rank Adaptation (LoRA), model fine-tuning
has become more accessible. While fine-tuning models with LoRA is highly
efficient, existing merging methods often sacrifice this efficiency by merging
fully-sized weight matrices. We propose the Core Space merging framework, which
enables the merging of LoRA-adapted models within a common alignment basis,
thereby preserving the efficiency of low-rank adaptation while substantially
improving accuracy across tasks. We further provide a formal proof that
projection into Core Space ensures no loss of information and provide a
complexity analysis showing the efficiency gains. Extensive empirical results
demonstrate that Core Space significantly improves existing merging techniques
and achieves state-of-the-art results on both vision and language tasks while
utilizing a fraction of the computational resources. Codebase is available at
https://github.com/apanariello4/core-space-merging.