ChatPaper.aiChatPaper

DivMerge: Un metodo di fusione di modelli basato sulla divergenza per il multi-tasking

DivMerge: A divergence-based model merging method for multi-tasking

September 2, 2025
Autori: Touayouch Brahim, Fosse Loïc, Damnati Géraldine, Lecorvé Gwénolé
cs.AI

Abstract

L'apprendimento multi-task (MTL) viene spesso realizzato unendo i dataset prima del fine-tuning, ma la crescente disponibilità di modelli già ottimizzati ha portato a nuovi approcci come la fusione di modelli tramite aritmetica dei task. Una delle principali sfide in questo contesto è l'interferenza tra task, che peggiora all'aumentare del numero di task. Proponiamo un metodo che unisce modelli addestrati su task diversi in un unico modello, mantenendo prestazioni solide su tutti i task. Il nostro approccio sfrutta la divergenza di Jensen-Shannon per guidare il processo di fusione senza richiedere dati etichettati aggiuntivi e bilancia automaticamente l'importanza dei task. A differenza dei metodi esistenti, il nostro approccio rimane robusto all'aumentare del numero di task e supera costantemente i lavori precedenti.
English
Multi-task learning (MTL) is often achieved by merging datasets before fine-tuning, but the growing availability of fine-tuned models has led to new approaches such as model merging via task arithmetic. A major challenge in this setting is task interference, which worsens as the number of tasks increases. We propose a method that merges models trained on different tasks into a single model, maintaining strong performance across all tasks. Our approach leverages Jensen-Shannon divergence to guide the merging process without requiring additional labelled data, and automatically balances task importance. Unlike existing methods, our approach remains robust as the number of tasks grows and consistently outperforms prior work.
PDF242September 9, 2025