ChatPaper.aiChatPaper

DivMerge: Un método de fusión de modelos basado en divergencia para multitarea

DivMerge: A divergence-based model merging method for multi-tasking

September 2, 2025
Autores: Touayouch Brahim, Fosse Loïc, Damnati Géraldine, Lecorvé Gwénolé
cs.AI

Resumen

El aprendizaje multitarea (MTL, por sus siglas en inglés) a menudo se logra fusionando conjuntos de datos antes del ajuste fino, pero la creciente disponibilidad de modelos ajustados ha dado lugar a nuevos enfoques, como la fusión de modelos mediante aritmética de tareas. Un desafío importante en este contexto es la interferencia entre tareas, que empeora a medida que aumenta el número de tareas. Proponemos un método que fusiona modelos entrenados en diferentes tareas en un solo modelo, manteniendo un rendimiento sólido en todas las tareas. Nuestro enfoque aprovecha la divergencia de Jensen-Shannon para guiar el proceso de fusión sin requerir datos etiquetados adicionales, y equilibra automáticamente la importancia de las tareas. A diferencia de los métodos existentes, nuestro enfoque se mantiene robusto a medida que aumenta el número de tareas y supera consistentemente trabajos previos.
English
Multi-task learning (MTL) is often achieved by merging datasets before fine-tuning, but the growing availability of fine-tuned models has led to new approaches such as model merging via task arithmetic. A major challenge in this setting is task interference, which worsens as the number of tasks increases. We propose a method that merges models trained on different tasks into a single model, maintaining strong performance across all tasks. Our approach leverages Jensen-Shannon divergence to guide the merging process without requiring additional labelled data, and automatically balances task importance. Unlike existing methods, our approach remains robust as the number of tasks grows and consistently outperforms prior work.
PDF242September 9, 2025