ChatPaper.aiChatPaper

Rep-MTL : Libérer la puissance de la saillance des tâches au niveau de la représentation pour l'apprentissage multitâche

Rep-MTL: Unleashing the Power of Representation-level Task Saliency for Multi-Task Learning

July 28, 2025
papers.authors: Zedong Wang, Siyuan Li, Dan Xu
cs.AI

papers.abstract

Malgré le potentiel de l'apprentissage multitâche à exploiter des connaissances complémentaires entre les tâches, les techniques existantes d'optimisation multitâche (MTO) restent focalisées sur la résolution des conflits via des stratégies de mise à l'échelle des pertes et de manipulation des gradients centrées sur l'optimiseur, sans pour autant offrir des gains systématiques. Dans cet article, nous soutenons que l'espace de représentation partagé, où les interactions entre tâches se produisent naturellement, offre des informations riches et un potentiel pour des opérations complémentaires aux optimiseurs existants, en particulier pour faciliter la complémentarité inter-tâches, un aspect rarement exploré dans le MTO. Cette intuition conduit à Rep-MTL, qui exploite la saillance des tâches au niveau des représentations pour quantifier les interactions entre l'optimisation spécifique à chaque tâche et l'apprentissage des représentations partagées. En orientant ces saillances via une pénalisation basée sur l'entropie et un alignement inter-tâches échantillon par échantillon, Rep-MTL vise à atténuer le transfert négatif en maintenant un entraînement efficace des tâches individuelles plutôt qu'une simple résolution de conflits, tout en favorisant explicitement le partage d'informations complémentaires. Des expériences sont menées sur quatre benchmarks MTL complexes couvrant à la fois des scénarios de décalage de tâches et de domaine. Les résultats montrent que Rep-MTL, même associé à une politique de pondération égale de base, obtient des gains de performance compétitifs avec une efficacité favorable. Au-delà des métriques de performance standard, une analyse des exposants de la loi de puissance démontre l'efficacité de Rep-MTL à équilibrer l'apprentissage spécifique à chaque tâche et le partage inter-tâches. La page du projet est disponible ICI.
English
Despite the promise of Multi-Task Learning in leveraging complementary knowledge across tasks, existing multi-task optimization (MTO) techniques remain fixated on resolving conflicts via optimizer-centric loss scaling and gradient manipulation strategies, yet fail to deliver consistent gains. In this paper, we argue that the shared representation space, where task interactions naturally occur, offers rich information and potential for operations complementary to existing optimizers, especially for facilitating the inter-task complementarity, which is rarely explored in MTO. This intuition leads to Rep-MTL, which exploits the representation-level task saliency to quantify interactions between task-specific optimization and shared representation learning. By steering these saliencies through entropy-based penalization and sample-wise cross-task alignment, Rep-MTL aims to mitigate negative transfer by maintaining the effective training of individual tasks instead pure conflict-solving, while explicitly promoting complementary information sharing. Experiments are conducted on four challenging MTL benchmarks covering both task-shift and domain-shift scenarios. The results show that Rep-MTL, even paired with the basic equal weighting policy, achieves competitive performance gains with favorable efficiency. Beyond standard performance metrics, Power Law exponent analysis demonstrates Rep-MTL's efficacy in balancing task-specific learning and cross-task sharing. The project page is available at HERE.
PDF373July 29, 2025