ChatPaper.aiChatPaper

SimpleAR: 事前学習、SFT、RLを活用して自己回帰的視覚生成のフロンティアを切り拓く

SimpleAR: Pushing the Frontier of Autoregressive Visual Generation through Pretraining, SFT, and RL

April 15, 2025
著者: Junke Wang, Zhi Tian, Xun Wang, Xinyu Zhang, Weilin Huang, Zuxuan Wu, Yu-Gang Jiang
cs.AI

要旨

本研究では、複雑なアーキテクチャ変更を伴わないシンプルな自己回帰型視覚生成フレームワーク「SimpleAR」を提案します。トレーニングと推論の最適化を慎重に検討することで、以下のことを実証しました:1) わずか0.5Bのパラメータで、1024x1024解像度の高忠実度画像を生成し、テキストから画像への挑戦的なベンチマーク(例えば、GenEvalで0.59、DPGで79.66)で競争力のある結果を達成できること、2) 教師ありファインチューニング(SFT)とGroup Relative Policy Optimization(GRPO)トレーニングの両方が、生成の美学とプロンプトの整合性に大幅な改善をもたらすこと、3) vLLMのような推論加速技術を最適化することで、SimpleARが1024x1024画像を生成する時間を約14秒に短縮できること。これらの知見を共有し、コードをオープンソース化することで、自己回帰型視覚生成の可能性を明らかにし、この研究分野へのさらなる参加を促進したいと考えています。コードはhttps://github.com/wdrink/SimpleARで公開されています。
English
This work presents SimpleAR, a vanilla autoregressive visual generation framework without complex architecure modifications. Through careful exploration of training and inference optimization, we demonstrate that: 1) with only 0.5B parameters, our model can generate 1024x1024 resolution images with high fidelity, and achieve competitive results on challenging text-to-image benchmarks, e.g., 0.59 on GenEval and 79.66 on DPG; 2) both supervised fine-tuning (SFT) and Group Relative Policy Optimization (GRPO) training could lead to significant improvements on generation aesthectics and prompt alignment; and 3) when optimized with inference acceleraton techniques like vLLM, the time for SimpleAR to generate an 1024x1024 image could be reduced to around 14 seconds. By sharing these findings and open-sourcing the code, we hope to reveal the potential of autoregressive visual generation and encourage more participation in this research field. Code is available at https://github.com/wdrink/SimpleAR.

Summary

AI-Generated Summary

PDF121April 16, 2025