ChatPaper.aiChatPaper

NextStep-1: Verso la generazione autoregressiva di immagini con token continui su larga scala

NextStep-1: Toward Autoregressive Image Generation with Continuous Tokens at Scale

August 14, 2025
Autori: NextStep Team, Chunrui Han, Guopeng Li, Jingwei Wu, Quan Sun, Yan Cai, Yuang Peng, Zheng Ge, Deyu Zhou, Haomiao Tang, Hongyu Zhou, Kenkun Liu, Ailin Huang, Bin Wang, Changxin Miao, Deshan Sun, En Yu, Fukun Yin, Gang Yu, Hao Nie, Haoran Lv, Hanpeng Hu, Jia Wang, Jian Zhou, Jianjian Sun, Kaijun Tan, Kang An, Kangheng Lin, Liang Zhao, Mei Chen, Peng Xing, Rui Wang, Shiyu Liu, Shutao Xia, Tianhao You, Wei Ji, Xianfang Zeng, Xin Han, Xuelin Zhang, Yana Wei, Yanming Xu, Yimin Jiang, Yingming Wang, Yu Zhou, Yucheng Han, Ziyang Meng, Binxing Jiao, Daxin Jiang, Xiangyu Zhang, Yibo Zhu
cs.AI

Abstract

I modelli autoregressivi (AR) predominanti per la generazione di immagini da testo si basano o su modelli di diffusione complessi e computazionalmente intensivi per elaborare token di immagine continui, o impiegano la quantizzazione vettoriale (VQ) per ottenere token discreti con perdita di quantizzazione. In questo articolo, avanziamo il paradigma autoregressivo con NextStep-1, un modello autoregressivo da 14B accoppiato a una testa di flow matching da 157M, addestrato su token di testo discreti e token di immagine continui con obiettivi di previsione del token successivo. NextStep-1 raggiunge prestazioni all'avanguardia per i modelli autoregressivi nei compiti di generazione di immagini da testo, dimostrando capacità eccezionali nella sintesi di immagini ad alta fedeltà. Inoltre, il nostro metodo mostra prestazioni solide nell'editing di immagini, evidenziando la potenza e la versatilità del nostro approccio unificato. Per favorire la ricerca aperta, rilasceremo il nostro codice e i modelli alla comunità.
English
Prevailing autoregressive (AR) models for text-to-image generation either rely on heavy, computationally-intensive diffusion models to process continuous image tokens, or employ vector quantization (VQ) to obtain discrete tokens with quantization loss. In this paper, we push the autoregressive paradigm forward with NextStep-1, a 14B autoregressive model paired with a 157M flow matching head, training on discrete text tokens and continuous image tokens with next-token prediction objectives. NextStep-1 achieves state-of-the-art performance for autoregressive models in text-to-image generation tasks, exhibiting strong capabilities in high-fidelity image synthesis. Furthermore, our method shows strong performance in image editing, highlighting the power and versatility of our unified approach. To facilitate open research, we will release our code and models to the community.
PDF1425August 15, 2025