TAG-MoE: Taakbewuste Poortwerking voor Verenigde Generatieve Mengsel-van-Experts
TAG-MoE: Task-Aware Gating for Unified Generative Mixture-of-Experts
January 12, 2026
Auteurs: Yu Xu, Hongbin Yan, Juan Cao, Yiji Cheng, Tiankai Hang, Runze He, Zijin Yin, Shiyi Zhang, Yuxin Zhang, Jintao Li, Chunyu Wang, Qinglin Lu, Tong-Yee Lee, Fan Tang
cs.AI
Samenvatting
Unified beeldgeneratie- en bewerkingsmodellen kampen met ernstige taakinterferentie in dense diffusion transformer-architecturen, waarbij een gedeelde parameterruimte een compromis moet sluiten tussen conflicterende doelstellingen (bijvoorbeeld lokale bewerking versus onderwerpgestuurde generatie). Hoewel het sparse Mixture-of-Experts (MoE) paradigma een veelbelovende oplossing is, blijven de gating-netwerken taakagnostisch; ze opereren op basis van lokale kenmerken en zijn zich niet bewust van globale taakintentie. Dit taakagnostische karakter verhindert zinvolle specialisatie en lost de onderliggende taakinterferentie niet op. In dit artikel stellen we een nieuw raamwerk voor om semantische intentie te injecteren in MoE-routing. We introduceren een Hiërarchisch Taaksemantisch Annotatieschema om gestructureerde taakdescriptoren (zoals reikwijdte, type, behoud) te creëren. Vervolgens ontwerpen we Predictive Alignment Regularization om interne routeringsbeslissingen af te stemmen op de hoogwaardige semantiek van de taak. Deze regularisatie transformeert het gating-netwerk van een taakagnostische uitvoerder naar een dispatchcentrum. Ons model vermindert taakinterferentie effectief, presteert beter dan dense baseline-modellen in termen van trouw en kwaliteit, en onze analyse toont aan dat experts van nature duidelijke en semantisch gecorreleerde specialisaties ontwikkelen.
English
Unified image generation and editing models suffer from severe task interference in dense diffusion transformers architectures, where a shared parameter space must compromise between conflicting objectives (e.g., local editing v.s. subject-driven generation). While the sparse Mixture-of-Experts (MoE) paradigm is a promising solution, its gating networks remain task-agnostic, operating based on local features, unaware of global task intent. This task-agnostic nature prevents meaningful specialization and fails to resolve the underlying task interference. In this paper, we propose a novel framework to inject semantic intent into MoE routing. We introduce a Hierarchical Task Semantic Annotation scheme to create structured task descriptors (e.g., scope, type, preservation). We then design Predictive Alignment Regularization to align internal routing decisions with the task's high-level semantics. This regularization evolves the gating network from a task-agnostic executor to a dispatch center. Our model effectively mitigates task interference, outperforming dense baselines in fidelity and quality, and our analysis shows that experts naturally develop clear and semantically correlated specializations.