ChatPaper.aiChatPaper

マルチモーダル離散拡散モデルのための強化学習の統合

Consolidating Reinforcement Learning for Multimodal Discrete Diffusion Models

October 3, 2025
著者: Tianren Ma, Mu Zhang, Yibing Wang, Qixiang Ye
cs.AI

要旨

報酬を用いた離散拡散モデル(DDM)の最適化は依然として課題である: 非自己回帰的なパラダイムは重要度サンプリングを困難にし、 ロールアウトを複雑にするため、Group Relative Policy Optimization(GRPO)などの強化学習手法を難解にしている。本研究では、MaskGRPOを導入し、離散拡散におけるスケーラブルな多モーダル強化学習を可能にする初めての実用的なアプローチを提案する。これにより、効果的な重要度サンプリングとモダリティ固有の適応を実現する。そのために、まずDDMの理論的基盤を明確にし、勾配更新に有用なトークンの変動を捉える重要度推定器の構築を容易にする。次に、視覚シーケンスのためのロールアウト手法を精巧に調整し、多様な補完と信頼性の高い最適化勾配を生み出す。数学的推論、コーディング、視覚生成のベンチマークにおいて、MaskGRPOはより安定した効率的な更新をもたらし、より強力な推論性能と優れた生成品質を実現する。本研究は、MaskGRPOを体系的なポリシー最適化アプローチとして確立し、離散化された視覚拡散のための初めての実用的な方法を示すものである。
English
Optimizing discrete diffusion model (DDM) with rewards remains a challenge: the non-autoregressive paradigm makes importance sampling intractable and rollout complex, puzzling reinforcement learning methods such as Group Relative Policy Optimization (GRPO). In this study, we introduce MaskGRPO, the first viable approach to enable scalable multimodal reinforcement learning in discrete diffusion with effective importance sampling and modality-specific adaptations. To this end, we first clarify the theoretical foundation for DDMs, which facilitates building an importance estimator that captures valuable token fluctuation for gradient updates. We then delicately tailored the rollout method for visual sequences, which yields diverse completions and reliable optimization gradients. Upon math reasoning, coding, and visual generation benchmarks, MaskGRPO brings more stable and efficient updates, leading to stronger reasoning performance and better generation quality. This study establishes MaskGRPO as a systematic policy optimization approach and the first practical way for discretized visual diffusion.
PDF22October 6, 2025