ChatPaper.aiChatPaper

Modèle de diffusion discrète à augmentation continue pour la modélisation générative catégorielle

Continuously Augmented Discrete Diffusion model for Categorical Generative Modeling

October 1, 2025
papers.authors: Huangjie Zheng, Shansan Gong, Ruixiang Zhang, Tianrong Chen, Jiatao Gu, Mingyuan Zhou, Navdeep Jaitly, Yizhe Zhang
cs.AI

papers.abstract

Les modèles de diffusion discrets standards traitent tous les états non observés de manière identique en les mappant à un jeton d'absorption [MASK]. Cela crée un « vide informationnel » où les informations sémantiques qui pourraient être déduites des jetons non masqués sont perdues entre les étapes de débruitage. Nous introduisons la Diffusion Discrète Continuement Augmentée (Continuously Augmented Discrete Diffusion, CADD), un cadre qui enrichit l'espace d'états discrets avec une diffusion jumelée dans un espace latent continu. Cela produit des états graduellement corrompus où les jetons masqués sont représentés par des vecteurs latents bruyants mais informatifs, plutôt que par des « vides informationnels » effondrés. À chaque étape inverse, CADD peut exploiter le latent continu comme une indication sémantique pour guider le débruitage discret. La conception est simple et compatible avec l'entraînement existant des modèles de diffusion discrets. Au moment de l'échantillonnage, la force et le choix de l'estimateur pour le vecteur latent continu permettent un compromis contrôlé entre la couverture des modes (génération de sorties diversifiées) et la recherche de modes (génération de sorties contextuellement précises). Empiriquement, nous démontrons que CADD améliore la qualité générative par rapport à la diffusion basée sur le masquage dans la génération de texte, la synthèse d'images et la modélisation de code, avec des gains constants sur les métriques qualitatives et quantitatives par rapport à des bases de référence discrètes solides.
English
Standard discrete diffusion models treat all unobserved states identically by mapping them to an absorbing [MASK] token. This creates an 'information void' where semantic information that could be inferred from unmasked tokens is lost between denoising steps. We introduce Continuously Augmented Discrete Diffusion (CADD), a framework that augments the discrete state space with a paired diffusion in a continuous latent space. This yields graded, gradually corrupted states in which masked tokens are represented by noisy yet informative latent vectors rather than collapsed 'information voids'. At each reverse step, CADD may leverage the continuous latent as a semantic hint to guide discrete denoising. The design is clean and compatible with existing discrete diffusion training. At sampling time, the strength and choice of estimator for the continuous latent vector enables a controlled trade-off between mode-coverage (generating diverse outputs) and mode-seeking (generating contextually precise outputs) behaviors. Empirically, we demonstrate CADD improves generative quality over mask-based diffusion across text generation, image synthesis, and code modeling, with consistent gains on both qualitative and quantitative metrics against strong discrete baselines.
PDF53October 6, 2025