ResTok: Обучение иерархическим остаткам в одномерных визуальных токенизаторах для авторегрессионного генерирования изображений
ResTok: Learning Hierarchical Residuals in 1D Visual Tokenizers for Autoregressive Image Generation
January 7, 2026
Авторы: Xu Zhang, Cheng Da, Huan Yang, Kun Gai, Ming Lu, Zhan Ma
cs.AI
Аннотация
Существующие одномерные визуальные токенизаторы для авторегрессионного (АР) генерации в значительной степени следуют принципам проектирования языкового моделирования, поскольку они построены непосредственно на трансформерах, чьи априорные предпосылки происходят из лингвистики. Это приводит к созданию одноуровневых латентных токенов и трактовке визуальных данных как плоских последовательных потоков токенов. Однако такая языко-подобная формулировка упускает ключевые свойства визуальной информации, в частности, иерархические и остаточные архитектуры сетей, которые долгое время были необходимы для сходимости и эффективности визуальных моделей. Чтобы вернуть «зрение» в компьютерное зрение, мы предлагаем Residual Tokenizer (ResTok) — одномерный визуальный токенизатор, который строит иерархические остатки как для токенов изображений, так и для латентных токенов. Иерархические представления, полученные путем прогрессивного слияния, позволяют осуществлять межуровневое слияние признаков на каждом слое, существенно повышая репрезентативную способность. В то же время семантические остатки между иерархиями предотвращают перекрытие информации, порождая более концентрированные латентные распределения, которые проще моделировать авторегрессионными методами. В результате межуровневые связи возникают без каких-либо явных ограничений. Для ускорения процесса генерации мы дополнительно представляем иерархический АР-генератор, который значительно сокращает количество шагов выборки, предсказывая целый уровень латентных токенов за один раз, вместо строгого поктокенной генерации. Многочисленные эксперименты демонстрируют, что восстановление иерархических остаточных априорных предположений в визуальной токенизации значительно улучшает АР-генерацию изображений, достигая gFID 2.34 на ImageNet-256 всего за 9 шагов выборки. Код доступен по адресу https://github.com/Kwai-Kolors/ResTok.
English
Existing 1D visual tokenizers for autoregressive (AR) generation largely follow the design principles of language modeling, as they are built directly upon transformers whose priors originate in language, yielding single-hierarchy latent tokens and treating visual data as flat sequential token streams. However, this language-like formulation overlooks key properties of vision, particularly the hierarchical and residual network designs that have long been essential for convergence and efficiency in visual models. To bring "vision" back to vision, we propose the Residual Tokenizer (ResTok), a 1D visual tokenizer that builds hierarchical residuals for both image tokens and latent tokens. The hierarchical representations obtained through progressively merging enable cross-level feature fusion at each layer, substantially enhancing representational capacity. Meanwhile, the semantic residuals between hierarchies prevent information overlap, yielding more concentrated latent distributions that are easier for AR modeling. Cross-level bindings consequently emerge without any explicit constraints. To accelerate the generation process, we further introduce a hierarchical AR generator that substantially reduces sampling steps by predicting an entire level of latent tokens at once rather than generating them strictly token-by-token. Extensive experiments demonstrate that restoring hierarchical residual priors in visual tokenization significantly improves AR image generation, achieving a gFID of 2.34 on ImageNet-256 with only 9 sampling steps. Code is available at https://github.com/Kwai-Kolors/ResTok.