ChatPaper.aiChatPaper

Гиперсферические латентные переменные улучшают авторегрессионную генерацию с непрерывными токенами

Hyperspherical Latents Improve Continuous-Token Autoregressive Generation

September 29, 2025
Авторы: Guolin Ke, Hui Xue
cs.AI

Аннотация

Авторегрессионные (AR) модели перспективны для генерации изображений, однако их варианты с непрерывными токенами часто уступают моделям с латентной диффузией и маскированной генерацией. Основная проблема заключается в неоднородной дисперсии латентных переменных VAE, которая усиливается в процессе AR-декодирования, особенно при использовании классификаторно-свободного управления (CFG), что может приводить к коллапсу дисперсии. Мы предлагаем SphereAR для решения этой проблемы. Её ключевая идея заключается в ограничении всех входных и выходных данных AR — включая данные после CFG — на гиперсфере фиксированного радиуса (постоянная норма ℓ₂), используя гиперсферические VAE. Наш теоретический анализ показывает, что гиперсферическое ограничение устраняет компонент масштаба (основную причину коллапса дисперсии), тем самым стабилизируя AR-декодирование. Экспериментально, в задаче генерации на ImageNet, SphereAR-H (943M) устанавливает новый рекорд для AR-моделей, достигая FID 1.34. Даже на меньших масштабах SphereAR-L (479M) достигает FID 1.54, а SphereAR-B (208M) — 1.92, что соответствует или превосходит значительно более крупные базовые модели, такие как MAR-H (943M, 1.55) и VAR-d30 (2B, 1.92). Насколько нам известно, это первый случай, когда чистая AR-модель генерации изображений с последовательным порядком токенов превосходит модели диффузии и маскированной генерации при сопоставимых масштабах параметров.
English
Autoregressive (AR) models are promising for image generation, yet continuous-token AR variants often trail latent diffusion and masked-generation models. The core issue is heterogeneous variance in VAE latents, which is amplified during AR decoding, especially under classifier-free guidance (CFG), and can cause variance collapse. We propose SphereAR to address this issue. Its core design is to constrain all AR inputs and outputs -- including after CFG -- to lie on a fixed-radius hypersphere (constant ell_2 norm), leveraging hyperspherical VAEs. Our theoretical analysis shows that hyperspherical constraint removes the scale component (the primary cause of variance collapse), thereby stabilizing AR decoding. Empirically, on ImageNet generation, SphereAR-H (943M) sets a new state of the art for AR models, achieving FID 1.34. Even at smaller scales, SphereAR-L (479M) reaches FID 1.54 and SphereAR-B (208M) reaches 1.92, matching or surpassing much larger baselines such as MAR-H (943M, 1.55) and VAR-d30 (2B, 1.92). To our knowledge, this is the first time a pure next-token AR image generator with raster order surpasses diffusion and masked-generation models at comparable parameter scales.
PDF62September 30, 2025