DivMerge: Eine divergenzbasierte Modellzusammenführungsmethode für Multitasking
DivMerge: A divergence-based model merging method for multi-tasking
September 2, 2025
papers.authors: Touayouch Brahim, Fosse Loïc, Damnati Géraldine, Lecorvé Gwénolé
cs.AI
papers.abstract
Multi-Task-Learning (MTL) wird häufig durch das Zusammenführen von Datensätzen vor dem Feinabstimmen erreicht, doch die zunehmende Verfügbarkeit von feinabgestimmten Modellen hat zu neuen Ansätzen wie dem Modellzusammenführen durch Aufgabenarithmetik geführt. Eine große Herausforderung in diesem Kontext ist die Aufgabeninterferenz, die mit der Anzahl der Aufgaben zunimmt. Wir schlagen eine Methode vor, die Modelle, die für verschiedene Aufgaben trainiert wurden, in ein einziges Modell zusammenführt und dabei eine starke Leistung über alle Aufgaben hinweg beibehält. Unser Ansatz nutzt die Jensen-Shannon-Divergenz, um den Zusammenführungsprozess zu steuern, ohne zusätzliche beschriftete Daten zu benötigen, und gleicht die Aufgabenpriorität automatisch aus. Im Gegensatz zu bestehenden Methoden bleibt unser Ansatz robust, wenn die Anzahl der Aufgaben wächst, und übertrifft kontinuierlich frühere Arbeiten.
English
Multi-task learning (MTL) is often achieved by merging datasets before
fine-tuning, but the growing availability of fine-tuned models has led to new
approaches such as model merging via task arithmetic. A major challenge in this
setting is task interference, which worsens as the number of tasks increases.
We propose a method that merges models trained on different tasks into a single
model, maintaining strong performance across all tasks. Our approach leverages
Jensen-Shannon divergence to guide the merging process without requiring
additional labelled data, and automatically balances task importance. Unlike
existing methods, our approach remains robust as the number of tasks grows and
consistently outperforms prior work.