TAG-MoE: Compuerta Consciente de la Tarea para la Mezcla Unificada de Expertos Generativos
TAG-MoE: Task-Aware Gating for Unified Generative Mixture-of-Experts
January 12, 2026
Autores: Yu Xu, Hongbin Yan, Juan Cao, Yiji Cheng, Tiankai Hang, Runze He, Zijin Yin, Shiyi Zhang, Yuxin Zhang, Jintao Li, Chunyu Wang, Qinglin Lu, Tong-Yee Lee, Fan Tang
cs.AI
Resumen
Los modelos unificados de generación y edición de imágenes sufren una severa interferencia de tareas en arquitecturas de transformadores de difusión densos, donde un espacio de parámetros compartido debe transigir entre objetivos conflictivos (por ejemplo, edición local frente a generación guiada por un sujeto). Si bien el paradigma disperso de Mezcla de Expertos (MoE) es una solución prometedora, sus redes de compuerta permanecen independientes de la tarea, operando en base a características locales, sin conocimiento de la intención global de la tarea. Esta naturaleza agnóstica a la tarea impide una especialización significativa y no logra resolver la interferencia subyacente. En este artículo, proponemos un marco novedoso para inyectar intención semántica en el enrutamiento MoE. Introducimos un esquema de Anotación Semántica Jerárquica de Tareas para crear descriptores de tareas estructurados (por ejemplo, alcance, tipo, preservación). Luego, diseñamos una Regularización de Alineación Predictiva para alinear las decisiones de enrutamiento interno con la semántica de alto nivel de la tarea. Esta regularización convierte la red de compuerta de un ejecutor agnóstico a la tarea en un centro de despacho. Nuestro modelo mitiga efectivamente la interferencia de tareas, superando a los baselines densos en fidelidad y calidad, y nuestro análisis muestra que los expertos desarrollan naturalmente especializaciones claras y semánticamente correlacionadas.
English
Unified image generation and editing models suffer from severe task interference in dense diffusion transformers architectures, where a shared parameter space must compromise between conflicting objectives (e.g., local editing v.s. subject-driven generation). While the sparse Mixture-of-Experts (MoE) paradigm is a promising solution, its gating networks remain task-agnostic, operating based on local features, unaware of global task intent. This task-agnostic nature prevents meaningful specialization and fails to resolve the underlying task interference. In this paper, we propose a novel framework to inject semantic intent into MoE routing. We introduce a Hierarchical Task Semantic Annotation scheme to create structured task descriptors (e.g., scope, type, preservation). We then design Predictive Alignment Regularization to align internal routing decisions with the task's high-level semantics. This regularization evolves the gating network from a task-agnostic executor to a dispatch center. Our model effectively mitigates task interference, outperforming dense baselines in fidelity and quality, and our analysis shows that experts naturally develop clear and semantically correlated specializations.