ChatPaper.aiChatPaper

Génération visuelle autoregressive parallélisée

Parallelized Autoregressive Visual Generation

December 19, 2024
Auteurs: Yuqing Wang, Shuhuai Ren, Zhijie Lin, Yujin Han, Haoyuan Guo, Zhenheng Yang, Difan Zou, Jiashi Feng, Xihui Liu
cs.AI

Résumé

Les modèles autorégressifs se sont imposés comme une approche puissante pour la génération visuelle, mais souffrent d'une vitesse d'inférence lente en raison de leur processus de prédiction séquentielle token par token. Dans cet article, nous proposons une approche simple mais efficace pour la génération visuelle autorégressive parallélisée qui améliore l'efficacité de la génération tout en préservant les avantages de la modélisation autorégressive. Notre insight clé est que la génération parallèle dépend des dépendances entre tokens visuels - les tokens avec des faibles dépendances peuvent être générés en parallèle, tandis que les tokens adjacents fortement dépendants sont difficiles à générer ensemble, car leur échantillonnage indépendant peut entraîner des incohérences. Sur la base de cette observation, nous développons une stratégie de génération parallèle qui génère des tokens distants avec de faibles dépendances en parallèle tout en maintenant une génération séquentielle pour les tokens locaux fortement dépendants. Notre approche peut être intégrée de manière transparente dans des modèles autorégressifs standard sans modifier l'architecture ou le tokenizer. Les expériences sur ImageNet et UCF-101 montrent que notre méthode permet d'atteindre un gain de vitesse de 3,6 fois avec une qualité comparable et jusqu'à 9,5 fois avec une dégradation minimale de la qualité pour les tâches de génération d'images et de vidéos. Nous espérons que ce travail inspirera des recherches futures dans la génération visuelle efficace et la modélisation autorégressive unifiée. Page du projet : https://epiphqny.github.io/PAR-project.
English
Autoregressive models have emerged as a powerful approach for visual generation but suffer from slow inference speed due to their sequential token-by-token prediction process. In this paper, we propose a simple yet effective approach for parallelized autoregressive visual generation that improves generation efficiency while preserving the advantages of autoregressive modeling. Our key insight is that parallel generation depends on visual token dependencies-tokens with weak dependencies can be generated in parallel, while strongly dependent adjacent tokens are difficult to generate together, as their independent sampling may lead to inconsistencies. Based on this observation, we develop a parallel generation strategy that generates distant tokens with weak dependencies in parallel while maintaining sequential generation for strongly dependent local tokens. Our approach can be seamlessly integrated into standard autoregressive models without modifying the architecture or tokenizer. Experiments on ImageNet and UCF-101 demonstrate that our method achieves a 3.6x speedup with comparable quality and up to 9.5x speedup with minimal quality degradation across both image and video generation tasks. We hope this work will inspire future research in efficient visual generation and unified autoregressive modeling. Project page: https://epiphqny.github.io/PAR-project.

Summary

AI-Generated Summary

PDF542December 23, 2024