ChatPaper.aiChatPaper

Difusão Cúbica Discreta: Geração Visual Discreta em Tokens de Representação de Alta Dimensão

Cubic Discrete Diffusion: Discrete Visual Generation on High-Dimensional Representation Tokens

March 19, 2026
Autores: Yuqing Wang, Chuofan Ma, Zhijie Lin, Yao Teng, Lijun Yu, Shuai Wang, Jiaming Han, Jiashi Feng, Yi Jiang, Xihui Liu
cs.AI

Resumo

A geração visual com tokens discretos tem ganhado atenção significativa, pois permite um paradigma unificado de previsão de tokens compartilhado com modelos de linguagem, prometendo arquiteturas multimodais contínuas. No entanto, os métodos atuais de geração discreta permanecem limitados a tokens latentes de baixa dimensionalidade (tipicamente 8-32 dimensões), sacrificando a riqueza semântica essencial para a compreensão. Embora representações pré-treinadas de alta dimensionalidade (768-1024 dimensões) possam preencher essa lacuna, a sua geração discreta apresenta desafios fundamentais. Neste artigo, apresentamos a Difusão Discreta Cúbica (CubiD), o primeiro modelo de geração discreta para representações de alta dimensionalidade. A CubiD realiza um mascaramento granular em toda a representação discreta de alta dimensionalidade — qualquer dimensão em qualquer posição pode ser mascarada e prevista a partir de observações parciais. Isso permite que o modelo aprenda correlações ricas tanto dentro quanto entre posições espaciais, com o número de etapas de geração fixado em T, independentemente da dimensionalidade das características, onde T ≪ hwd. No ImageNet-256, a CubiD alcança a geração discreta de última geração com um forte comportamento de escalabilidade de 900M para 3,7B de parâmetros. Crucialmente, validamos que esses tokens discretizados preservam as capacidades de representação originais, demonstrando que os mesmos tokens discretos podem servir efetivamente tanto para tarefas de compreensão quanto de geração. Esperamos que este trabalho inspire pesquisas futuras rumo a arquiteturas multimodais unificadas. O código está disponível em: https://github.com/YuqingWang1029/CubiD.
English
Visual generation with discrete tokens has gained significant attention as it enables a unified token prediction paradigm shared with language models, promising seamless multimodal architectures. However, current discrete generation methods remain limited to low-dimensional latent tokens (typically 8-32 dims), sacrificing the semantic richness essential for understanding. While high-dimensional pretrained representations (768-1024 dims) could bridge this gap, their discrete generation poses fundamental challenges. In this paper, we present Cubic Discrete Diffusion (CubiD), the first discrete generation model for high-dimensional representations. CubiD performs fine-grained masking throughout the high-dimensional discrete representation -- any dimension at any position can be masked and predicted from partial observations. This enables the model to learn rich correlations both within and across spatial positions, with the number of generation steps fixed at T regardless of feature dimensionality, where T ll hwd. On ImageNet-256, CubiD achieves state-of-the-art discrete generation with strong scaling behavior from 900M to 3.7B parameters. Crucially, we validate that these discretized tokens preserve original representation capabilities, demonstrating that the same discrete tokens can effectively serve both understanding and generation tasks. We hope this work will inspire future research toward unified multimodal architectures. Code is available at: https://github.com/YuqingWang1029/CubiD.
PDF302March 23, 2026