ChatPaper.aiChatPaper

Control-R: 制御可能なテスト時スケーリングに向けて

Control-R: Towards controllable test-time scaling

May 30, 2025
著者: Di Zhang, Weida Wang, Junxian Li, Xunzhi Wang, Jiatong Li, Jianbo Wu, Jingdi Lei, Haonan He, Peng Ye, Shufei Zhang, Wanli Ouyang, Yuqiang Li, Dongzhan Zhou
cs.AI

要旨

本論文は、大規模推論モデル(LRM)における長い連鎖思考(CoT)推論における「思考不足」と「過剰思考」の課題に取り組むため、構造化された制御信号を注入して木探索の観点から推論を導く新しいテスト時アプローチであるReasoning Control Fields(RCF)を提案する。RCFは、複雑な課題を解決する際に、与えられた制御条件に応じて推論努力を調整することを可能にする。さらに、詳細な推論プロセスと対応する制御フィールドを注釈付けた挑戦的な問題からなるControl-R-4Kデータセットを提示する。推論制御をさらに強化するため、テスト時に推論努力を効果的に調整するようモデル(特にControl-R-32B)を訓練するConditional Distillation Finetuning(CDF)手法を提案する。AIME2024やMATH500などのベンチマークにおける実験結果は、32Bスケールで最先端の性能を達成しつつ、制御可能な長い連鎖思考推論プロセス(L-CoT)を実現することを示している。全体として、本論文は制御可能なテスト時スケーリング推論のための効果的なパラダイムを導入するものである。
English
This paper target in addressing the challenges of underthinking and overthinking in long chain-of-thought (CoT) reasoning for Large Reasoning Models (LRMs) by introducing Reasoning Control Fields (RCF)--a novel test-time approach that injects structured control signals to guide reasoning from a tree search perspective. RCF enables models to adjust reasoning effort according to given control conditions when solving complex tasks. Additionally, we present the Control-R-4K dataset, which consists of challenging problems annotated with detailed reasoning processes and corresponding control fields. To further enhance reasoning control, we propose a Conditional Distillation Finetuning (CDF) method, which trains model--particularly Control-R-32B--to effectively adjust reasoning effort during test time. Experimental results on benchmarks such as AIME2024 and MATH500 demonstrate that our approach achieves state-of-the-art performance at the 32B scale while enabling a controllable Long CoT reasoning process (L-CoT). Overall, this work introduces an effective paradigm for controllable test-time scaling reasoning.
PDF22June 5, 2025