NextStep-1: Naar autoregressieve beeldgeneratie met continue tokens op schaal
NextStep-1: Toward Autoregressive Image Generation with Continuous Tokens at Scale
August 14, 2025
Auteurs: NextStep Team, Chunrui Han, Guopeng Li, Jingwei Wu, Quan Sun, Yan Cai, Yuang Peng, Zheng Ge, Deyu Zhou, Haomiao Tang, Hongyu Zhou, Kenkun Liu, Ailin Huang, Bin Wang, Changxin Miao, Deshan Sun, En Yu, Fukun Yin, Gang Yu, Hao Nie, Haoran Lv, Hanpeng Hu, Jia Wang, Jian Zhou, Jianjian Sun, Kaijun Tan, Kang An, Kangheng Lin, Liang Zhao, Mei Chen, Peng Xing, Rui Wang, Shiyu Liu, Shutao Xia, Tianhao You, Wei Ji, Xianfang Zeng, Xin Han, Xuelin Zhang, Yana Wei, Yanming Xu, Yimin Jiang, Yingming Wang, Yu Zhou, Yucheng Han, Ziyang Meng, Binxing Jiao, Daxin Jiang, Xiangyu Zhang, Yibo Zhu
cs.AI
Samenvatting
Bestaande autoregressieve (AR) modellen voor tekst-naar-beeldgeneratie vertrouwen ofwel op zware, rekenintensieve diffusiemodellen om continue beeldtokens te verwerken, of maken gebruik van vectorquantisatie (VQ) om discrete tokens te verkrijgen met quantisatieverlies. In dit artikel brengen we het autoregressieve paradigma verder met NextStep-1, een 14B autoregressief model gekoppeld aan een 157M flow matching head, dat getraind wordt op discrete teksttokens en continue beeldtokens met next-token voorspellingsdoelen. NextStep-1 behaalt state-of-the-art prestaties voor autoregressieve modellen in tekst-naar-beeldgeneratietaken, waarbij het sterke mogelijkheden toont in hoogwaardige beeldgeneratie. Bovendien laat onze methode sterke prestaties zien in beeldbewerking, wat de kracht en veelzijdigheid van onze geïntegreerde aanpak benadrukt. Om open onderzoek te bevorderen, zullen we onze code en modellen vrijgeven aan de gemeenschap.
English
Prevailing autoregressive (AR) models for text-to-image generation either
rely on heavy, computationally-intensive diffusion models to process continuous
image tokens, or employ vector quantization (VQ) to obtain discrete tokens with
quantization loss. In this paper, we push the autoregressive paradigm forward
with NextStep-1, a 14B autoregressive model paired with a 157M flow matching
head, training on discrete text tokens and continuous image tokens with
next-token prediction objectives. NextStep-1 achieves state-of-the-art
performance for autoregressive models in text-to-image generation tasks,
exhibiting strong capabilities in high-fidelity image synthesis. Furthermore,
our method shows strong performance in image editing, highlighting the power
and versatility of our unified approach. To facilitate open research, we will
release our code and models to the community.