ResTok : Apprentissage de résidus hiérarchiques dans les tokeniseurs visuels 1D pour la génération d'images autorégressive
ResTok: Learning Hierarchical Residuals in 1D Visual Tokenizers for Autoregressive Image Generation
January 7, 2026
papers.authors: Xu Zhang, Cheng Da, Huan Yang, Kun Gai, Ming Lu, Zhan Ma
cs.AI
papers.abstract
Les tokenizers visuels 1D existants pour la génération autorégressive (AR) suivent largement les principes de conception de la modélisation du langage, car ils sont construits directement sur des transformers dont les prérequis proviennent du langage, produisant des tokens latents à hiérarchie unique et traitant les données visuelles comme des flux séquentiels plats de tokens. Cependant, cette formulation de type langage néglige des propriétés clés de la vision, en particulier les conceptions de réseaux hiérarchiques et résiduels qui ont longtemps été essentielles pour la convergence et l'efficacité des modèles visuels. Pour ramener la "vision" dans la vision, nous proposons le Residual Tokenizer (ResTok), un tokenizer visuel 1D qui construit des résidus hiérarchiques à la fois pour les tokens d'image et les tokens latents. Les représentations hiérarchiques obtenues par fusion progressive permettent une fusion de caractéristiques inter-niveaux à chaque couche, améliorant considérablement la capacité de représentation. Parallèlement, les résidus sémantiques entre les hiérarchies empêchent le chevauchement d'informations, produisant des distributions latentes plus concentrées qui sont plus faciles à modéliser en AR. Des liaisons inter-niveaux émergent ainsi sans aucune contrainte explicite. Pour accélérer le processus de génération, nous introduisons en outre un générateur AR hiérarchique qui réduit substantiellement les étapes d'échantillonnage en prédisant un niveau entier de tokens latents en une fois plutôt que de les générer strictement token par token. Des expériences approfondies démontrent que la restauration de prérequis résiduels hiérarchiques dans la tokenization visuelle améliore significativement la génération d'images AR, atteignant un gFID de 2,34 sur ImageNet-256 avec seulement 9 étapes d'échantillonnage. Le code est disponible à l'adresse https://github.com/Kwai-Kolors/ResTok.
English
Existing 1D visual tokenizers for autoregressive (AR) generation largely follow the design principles of language modeling, as they are built directly upon transformers whose priors originate in language, yielding single-hierarchy latent tokens and treating visual data as flat sequential token streams. However, this language-like formulation overlooks key properties of vision, particularly the hierarchical and residual network designs that have long been essential for convergence and efficiency in visual models. To bring "vision" back to vision, we propose the Residual Tokenizer (ResTok), a 1D visual tokenizer that builds hierarchical residuals for both image tokens and latent tokens. The hierarchical representations obtained through progressively merging enable cross-level feature fusion at each layer, substantially enhancing representational capacity. Meanwhile, the semantic residuals between hierarchies prevent information overlap, yielding more concentrated latent distributions that are easier for AR modeling. Cross-level bindings consequently emerge without any explicit constraints. To accelerate the generation process, we further introduce a hierarchical AR generator that substantially reduces sampling steps by predicting an entire level of latent tokens at once rather than generating them strictly token-by-token. Extensive experiments demonstrate that restoring hierarchical residual priors in visual tokenization significantly improves AR image generation, achieving a gFID of 2.34 on ImageNet-256 with only 9 sampling steps. Code is available at https://github.com/Kwai-Kolors/ResTok.