TAG-MoE: Aufgabenbewusstes Gating für einheitliche generative Mixture-of-Experts
TAG-MoE: Task-Aware Gating for Unified Generative Mixture-of-Experts
January 12, 2026
papers.authors: Yu Xu, Hongbin Yan, Juan Cao, Yiji Cheng, Tiankai Hang, Runze He, Zijin Yin, Shiyi Zhang, Yuxin Zhang, Jintao Li, Chunyu Wang, Qinglin Lu, Tong-Yee Lee, Fan Tang
cs.AI
papers.abstract
Einheitliche Modelle zur Bildgenerierung und -bearbeitung leiden unter erheblicher Aufgabeninterferenz in dichten Diffusionstransformer-Architekturen, bei denen ein gemeinsamer Parameterraum einen Kompromiss zwischen konfligierenden Zielen finden muss (z.B. lokale Bearbeitung gegenüber subjektgesteuerter Generierung). Während das sparse Mixture-of-Experts (MoE)-Paradigma eine vielversprechende Lösung darstellt, bleiben seine Gating-Netzwerke aufgabenagnostisch und operieren auf Basis lokaler Merkmale, ohne globale Aufgabenintention zu berücksichtigen. Diese aufgabenagnostische Natur verhindert eine sinnvolle Spezialisierung und kann die zugrundeliegende Aufgabeninterferenz nicht auflösen. In diesem Beitrag schlagen wir ein neuartiges Framework zur Integration semantischer Intentionsinformationen in das MoE-Routing vor. Wir führen ein hierarchisches Schema zur semantischen Aufgabenannotation ein, um strukturierte Aufgabendeskriptoren (z.B. Umfang, Typ, Erhaltungsgrad) zu erstellen. Anschließend entwerfen wir eine prädiktive Ausrichtungsregularisierung, um interne Routing-Entscheidungen mit der hochleveligen Semantik der Aufgabe abzustimmen. Diese Regularisierung entwickelt das Gating-Netzwerk von einem aufgabenagnostischen Ausführungsmodul zu einer Dispatcher-Zentrale weiter. Unser Modell mildert Aufgabeninterferenzen effektiv ab, übertrifft dichte Baseline-Modelle in Bezug auf Treue und Qualität, und unsere Analysen zeigen, dass Experten natürlicherweise klare und semantisch korrelierte Spezialisierungen entwickeln.
English
Unified image generation and editing models suffer from severe task interference in dense diffusion transformers architectures, where a shared parameter space must compromise between conflicting objectives (e.g., local editing v.s. subject-driven generation). While the sparse Mixture-of-Experts (MoE) paradigm is a promising solution, its gating networks remain task-agnostic, operating based on local features, unaware of global task intent. This task-agnostic nature prevents meaningful specialization and fails to resolve the underlying task interference. In this paper, we propose a novel framework to inject semantic intent into MoE routing. We introduce a Hierarchical Task Semantic Annotation scheme to create structured task descriptors (e.g., scope, type, preservation). We then design Predictive Alignment Regularization to align internal routing decisions with the task's high-level semantics. This regularization evolves the gating network from a task-agnostic executor to a dispatch center. Our model effectively mitigates task interference, outperforming dense baselines in fidelity and quality, and our analysis shows that experts naturally develop clear and semantically correlated specializations.