SimpleAR: 事前学習、SFT、RLを活用して自己回帰的視覚生成のフロンティアを切り拓く
SimpleAR: Pushing the Frontier of Autoregressive Visual Generation through Pretraining, SFT, and RL
April 15, 2025
著者: Junke Wang, Zhi Tian, Xun Wang, Xinyu Zhang, Weilin Huang, Zuxuan Wu, Yu-Gang Jiang
cs.AI
要旨
本研究では、複雑なアーキテクチャ変更を伴わないシンプルな自己回帰型視覚生成フレームワーク「SimpleAR」を提案します。トレーニングと推論の最適化を慎重に検討することで、以下のことを実証しました:1) わずか0.5Bのパラメータで、1024x1024解像度の高忠実度画像を生成し、テキストから画像への挑戦的なベンチマーク(例えば、GenEvalで0.59、DPGで79.66)で競争力のある結果を達成できること、2) 教師ありファインチューニング(SFT)とGroup Relative Policy Optimization(GRPO)トレーニングの両方が、生成の美学とプロンプトの整合性に大幅な改善をもたらすこと、3) vLLMのような推論加速技術を最適化することで、SimpleARが1024x1024画像を生成する時間を約14秒に短縮できること。これらの知見を共有し、コードをオープンソース化することで、自己回帰型視覚生成の可能性を明らかにし、この研究分野へのさらなる参加を促進したいと考えています。コードはhttps://github.com/wdrink/SimpleARで公開されています。
English
This work presents SimpleAR, a vanilla autoregressive visual generation
framework without complex architecure modifications. Through careful
exploration of training and inference optimization, we demonstrate that: 1)
with only 0.5B parameters, our model can generate 1024x1024 resolution images
with high fidelity, and achieve competitive results on challenging
text-to-image benchmarks, e.g., 0.59 on GenEval and 79.66 on DPG; 2) both
supervised fine-tuning (SFT) and Group Relative Policy Optimization (GRPO)
training could lead to significant improvements on generation aesthectics and
prompt alignment; and 3) when optimized with inference acceleraton techniques
like vLLM, the time for SimpleAR to generate an 1024x1024 image could be
reduced to around 14 seconds. By sharing these findings and open-sourcing the
code, we hope to reveal the potential of autoregressive visual generation and
encourage more participation in this research field. Code is available at
https://github.com/wdrink/SimpleAR.Summary
AI-Generated Summary