ResTok: Aprendizaje de Residuos Jerárquicos en Tokenizadores Visuales 1D para la Generación Autoregresiva de Imágenes
ResTok: Learning Hierarchical Residuals in 1D Visual Tokenizers for Autoregressive Image Generation
January 7, 2026
Autores: Xu Zhang, Cheng Da, Huan Yang, Kun Gai, Ming Lu, Zhan Ma
cs.AI
Resumen
Los tokenizadores visuales 1D existentes para generación autoregresiva (AR) siguen en gran medida los principios de diseño del modelado del lenguaje, ya que se construyen directamente sobre transformadores cuyos priores se originan en el lenguaje, produciendo tokens latentes de una sola jerarquía y tratando los datos visuales como flujos secuenciales planos de tokens. Sin embargo, esta formulación similar al lenguaje pasa por alto propiedades clave de la visión, particularmente los diseños de redes jerárquicas y residuales que han sido esenciales durante mucho tiempo para la convergencia y eficiencia en modelos visuales. Para devolver la "visión" a la visión, proponemos el Residual Tokenizer (ResTok), un tokenizador visual 1D que construye residuos jerárquicos tanto para tokens de imagen como para tokens latentes. Las representaciones jerárquicas obtenidas mediante fusión progresiva permiten la fusión de características cruzadas en cada capa, mejorando sustancialmente la capacidad de representación. Mientras tanto, los residuos semánticos entre jerarquías evitan la superposición de información, produciendo distribuciones latentes más concentradas que son más fáciles de modelar de forma AR. En consecuencia, emergen enlaces cruzados sin ninguna restricción explícita. Para acelerar el proceso de generación, introducimos además un generador AR jerárquico que reduce sustancialmente los pasos de muestreo al predecir un nivel completo de tokens latentes de una vez, en lugar de generarlos estrictamente token por token. Experimentos exhaustivos demuestran que restaurar los priores residuales jerárquicos en la tokenización visual mejora significativamente la generación de imágenes AR, logrando un gFID de 2.34 en ImageNet-256 con solo 9 pasos de muestreo. El código está disponible en https://github.com/Kwai-Kolors/ResTok.
English
Existing 1D visual tokenizers for autoregressive (AR) generation largely follow the design principles of language modeling, as they are built directly upon transformers whose priors originate in language, yielding single-hierarchy latent tokens and treating visual data as flat sequential token streams. However, this language-like formulation overlooks key properties of vision, particularly the hierarchical and residual network designs that have long been essential for convergence and efficiency in visual models. To bring "vision" back to vision, we propose the Residual Tokenizer (ResTok), a 1D visual tokenizer that builds hierarchical residuals for both image tokens and latent tokens. The hierarchical representations obtained through progressively merging enable cross-level feature fusion at each layer, substantially enhancing representational capacity. Meanwhile, the semantic residuals between hierarchies prevent information overlap, yielding more concentrated latent distributions that are easier for AR modeling. Cross-level bindings consequently emerge without any explicit constraints. To accelerate the generation process, we further introduce a hierarchical AR generator that substantially reduces sampling steps by predicting an entire level of latent tokens at once rather than generating them strictly token-by-token. Extensive experiments demonstrate that restoring hierarchical residual priors in visual tokenization significantly improves AR image generation, achieving a gFID of 2.34 on ImageNet-256 with only 9 sampling steps. Code is available at https://github.com/Kwai-Kolors/ResTok.