MMaDA-Parallel:思考を考慮した編集と生成のためのマルチモーダル大規模拡散言語モデル
MMaDA-Parallel: Multimodal Large Diffusion Language Models for Thinking-Aware Editing and Generation
November 12, 2025
著者: Ye Tian, Ling Yang, Jiongfan Yang, Anran Wang, Yu Tian, Jiani Zheng, Haochen Wang, Zhiyang Teng, Zhuochen Wang, Yinjie Wang, Yunhai Tong, Mengdi Wang, Xiangtai Li
cs.AI
要旨
思考を伴う生成は複雑なタスクにおける性能向上を目指すが、既存の逐次的な自己回帰的アプローチでは、誤差伝播によって逆に性能が劣化するという重大な失敗モードが存在する。この問題を体系的に分析するため、テキストと画像の両方の出力モダリティを評価する新しいベンチマークであるParaBenchを提案する。ParaBenchを用いた分析により、この性能劣化が生成された推論と最終画像間の不適切なアライメントと強く相関していることが明らかとなった。この問題を解決するため、デノイジング軌道全体を通じてテキストと画像の連続的かつ双方向的な相互作用を可能にする並列マルチモーダル拡散フレームワーク、MMaDA-Parallelを提案する。MMaDA-Parallelは教師ありファインチューニングで学習された後、軌道に沿って意味的報酬を適用しクロスモーダル一貫性を強化する新規戦略であるParallel Reinforcement Learning (ParaRL) によってさらに最適化される。実験により、本モデルがクロスモーダルアライメントと意味的一貫性を大幅に改善し、最先端モデルであるBagelと比較してParaBenchのOutput Alignmentで6.9%の向上を達成し、思考を伴う画像合成のより堅牢なパラダイムを確立することを検証した。コードはhttps://github.com/tyfeld/MMaDA-Parallelで公開されている。
English
While thinking-aware generation aims to improve performance on complex tasks, we identify a critical failure mode where existing sequential, autoregressive approaches can paradoxically degrade performance due to error propagation. To systematically analyze this issue, we propose ParaBench, a new benchmark designed to evaluate both text and image output modalities. Our analysis using ParaBench reveals that this performance degradation is strongly correlated with poor alignment between the generated reasoning and the final image. To resolve this, we propose a parallel multimodal diffusion framework, MMaDA-Parallel, that enables continuous, bidirectional interaction between text and images throughout the entire denoising trajectory. MMaDA-Parallel is trained with supervised finetuning and then further optimized by Parallel Reinforcement Learning (ParaRL), a novel strategy that applies semantic rewards along the trajectory to enforce cross-modal consistency. Experiments validate that our model significantly improves cross-modal alignment and semantic consistency, achieving a 6.9\% improvement in Output Alignment on ParaBench compared to the state-of-the-art model, Bagel, establishing a more robust paradigm for thinking-aware image synthesis. Our code is open-sourced at https://github.com/tyfeld/MMaDA-Parallel