数学的推論における自己報酬型修正Self-rewarding correction for mathematical reasoning
本研究では、推論時に外部からのフィードバックを必要とせずに、段階的な推論を生成しつつその出力の正しさを評価できる自己報酬型推論大規模言語モデル(LLMs)を検討する。この統合的なアプローチにより、単一のモデルが独立して推論プロセスを導くことが可能となり、モデル展開における計算上の利点を提供する。特に、モデルが自らの応答における誤りを自律的に検出し、出力を修正し、反復的な改善ループをいつ終了するかを決定する自己修正という代表的なタスクに焦点を当てる。これを実現するため、自己生成データのみを用いて自己報酬型推論モデルを構築するための2段階のアルゴリズムフレームワークを提案する。第1段階では、自己報酬と自己修正のメカニズムを組み込んだ長い連鎖思考(chain-of-thought)の軌跡を合成するために逐次棄却サンプリングを採用する。これらの精選されたデータでモデルをファインチューニングすることで、自己報酬と自己修正のパターンを学習させる。第2段階では、ルールベースのシグナルを用いた強化学習を通じて、モデルの応答精度の評価能力と出力の改善能力をさらに強化する。Llama-3およびQwen-2.5を用いた実験により、本アプローチが内在的な自己修正能力を凌駕し、外部の報酬モデルに依存するシステムと同等の性能を達成することを実証する。