DivMerge: Метод объединения моделей на основе дивергенции для многозадачного обучения
DivMerge: A divergence-based model merging method for multi-tasking
September 2, 2025
Авторы: Touayouch Brahim, Fosse Loïc, Damnati Géraldine, Lecorvé Gwénolé
cs.AI
Аннотация
Многозадачное обучение (MTL) часто достигается путем объединения наборов данных перед тонкой настройкой, однако растущая доступность тонко настроенных моделей привела к появлению новых подходов, таких как объединение моделей с помощью арифметики задач. Основной проблемой в этом контексте является интерференция задач, которая усугубляется с увеличением их количества. Мы предлагаем метод, который объединяет модели, обученные на разных задачах, в единую модель, сохраняя высокую производительность по всем задачам. Наш подход использует дивергенцию Йенсена-Шеннона для управления процессом объединения без необходимости в дополнительных размеченных данных и автоматически балансирует важность задач. В отличие от существующих методов, наш подход остается устойчивым с увеличением числа задач и стабильно превосходит предыдущие работы.
English
Multi-task learning (MTL) is often achieved by merging datasets before
fine-tuning, but the growing availability of fine-tuned models has led to new
approaches such as model merging via task arithmetic. A major challenge in this
setting is task interference, which worsens as the number of tasks increases.
We propose a method that merges models trained on different tasks into a single
model, maintaining strong performance across all tasks. Our approach leverages
Jensen-Shannon divergence to guide the merging process without requiring
additional labelled data, and automatically balances task importance. Unlike
existing methods, our approach remains robust as the number of tasks grows and
consistently outperforms prior work.