ChatPaper.aiChatPaper

Amélioration de la génération d'images autoregressive grâce à la prédiction de tokens du grossier au fin

Improving Autoregressive Image Generation through Coarse-to-Fine Token Prediction

March 20, 2025
Auteurs: Ziyao Guo, Kaipeng Zhang, Michael Qizhe Shieh
cs.AI

Résumé

Les modèles autorégressifs ont montré un succès remarquable dans la génération d'images en adaptant les techniques de prédiction séquentielle issues de la modélisation du langage. Cependant, l'application de ces approches aux images nécessite de discrétiser les données de pixels continues via des méthodes de quantification vectorielle comme le VQ-VAE. Pour atténuer les erreurs de quantification présentes dans le VQ-VAE, les travaux récents tendent à utiliser des codebooks plus volumineux. Cependant, cela augmente proportionnellement la taille du vocabulaire, compliquant ainsi la tâche de modélisation autorégressive. Cet article vise à trouver un moyen de bénéficier des avantages des grands codebooks sans rendre la modélisation autorégressive plus difficile. Grâce à une investigation empirique, nous découvrons que les tokens avec des représentations de mots de code similaires produisent des effets similaires sur l'image générée finale, révélant une redondance significative dans les grands codebooks. Sur la base de cette observation, nous proposons de prédire les tokens de manière grossière à fine (CTF), réalisée en attribuant la même étiquette grossière à des tokens similaires. Notre cadre se compose de deux étapes : (1) un modèle autorégressif qui prédit séquentiellement les étiquettes grossières pour chaque token dans la séquence, et (2) un modèle auxiliaire qui prédit simultanément les étiquettes fines pour tous les tokens conditionnées par leurs étiquettes grossières. Les expériences sur ImageNet démontrent la performance supérieure de notre méthode, avec une amélioration moyenne de 59 points dans le score Inception par rapport aux méthodes de référence. Notamment, malgré l'ajout d'une étape d'inférence, notre approche permet des vitesses d'échantillonnage plus rapides.
English
Autoregressive models have shown remarkable success in image generation by adapting sequential prediction techniques from language modeling. However, applying these approaches to images requires discretizing continuous pixel data through vector quantization methods like VQ-VAE. To alleviate the quantization errors that existed in VQ-VAE, recent works tend to use larger codebooks. However, this will accordingly expand vocabulary size, complicating the autoregressive modeling task. This paper aims to find a way to enjoy the benefits of large codebooks without making autoregressive modeling more difficult. Through empirical investigation, we discover that tokens with similar codeword representations produce similar effects on the final generated image, revealing significant redundancy in large codebooks. Based on this insight, we propose to predict tokens from coarse to fine (CTF), realized by assigning the same coarse label for similar tokens. Our framework consists of two stages: (1) an autoregressive model that sequentially predicts coarse labels for each token in the sequence, and (2) an auxiliary model that simultaneously predicts fine-grained labels for all tokens conditioned on their coarse labels. Experiments on ImageNet demonstrate our method's superior performance, achieving an average improvement of 59 points in Inception Score compared to baselines. Notably, despite adding an inference step, our approach achieves faster sampling speeds.

Summary

AI-Generated Summary

PDF82March 21, 2025