ChatPaper.aiChatPaper

DivMerge: Eine divergenzbasierte Modellzusammenführungsmethode für Multitasking

DivMerge: A divergence-based model merging method for multi-tasking

September 2, 2025
papers.authors: Touayouch Brahim, Fosse Loïc, Damnati Géraldine, Lecorvé Gwénolé
cs.AI

papers.abstract

Multi-Task-Learning (MTL) wird häufig durch das Zusammenführen von Datensätzen vor dem Feinabstimmen erreicht, doch die zunehmende Verfügbarkeit von feinabgestimmten Modellen hat zu neuen Ansätzen wie dem Modellzusammenführen durch Aufgabenarithmetik geführt. Eine große Herausforderung in diesem Kontext ist die Aufgabeninterferenz, die mit der Anzahl der Aufgaben zunimmt. Wir schlagen eine Methode vor, die Modelle, die für verschiedene Aufgaben trainiert wurden, in ein einziges Modell zusammenführt und dabei eine starke Leistung über alle Aufgaben hinweg beibehält. Unser Ansatz nutzt die Jensen-Shannon-Divergenz, um den Zusammenführungsprozess zu steuern, ohne zusätzliche beschriftete Daten zu benötigen, und gleicht die Aufgabenpriorität automatisch aus. Im Gegensatz zu bestehenden Methoden bleibt unser Ansatz robust, wenn die Anzahl der Aufgaben wächst, und übertrifft kontinuierlich frühere Arbeiten.
English
Multi-task learning (MTL) is often achieved by merging datasets before fine-tuning, but the growing availability of fine-tuned models has led to new approaches such as model merging via task arithmetic. A major challenge in this setting is task interference, which worsens as the number of tasks increases. We propose a method that merges models trained on different tasks into a single model, maintaining strong performance across all tasks. Our approach leverages Jensen-Shannon divergence to guide the merging process without requiring additional labelled data, and automatically balances task importance. Unlike existing methods, our approach remains robust as the number of tasks grows and consistently outperforms prior work.
PDF242September 9, 2025