自我獎勵式數學推理校正Self-rewarding correction for mathematical reasoning
我們研究自獎勵推理大型語言模型(LLMs),這些模型能在推理過程中同時生成逐步推理並評估其輸出的正確性,而無需外部反饋。這種整合方法使單一模型能獨立引導其推理過程,為模型部署提供計算優勢。我們特別關注自我修正這一代表性任務,其中模型能自主檢測其回應中的錯誤、修正輸出,並決定何時終止迭代精煉循環。為實現這一點,我們提出了一個兩階段的算法框架,僅使用自生成數據來構建自獎勵推理模型。在第一階段,我們採用序列拒絕抽樣來合成包含自獎勵和自我修正機制的長鏈思維軌跡。在這些精心策劃的數據上微調模型,使其能學習自獎勵和自我修正的模式。在第二階段,我們通過基於規則信號的強化學習進一步增強模型評估回應準確性和精煉輸出的能力。Llama-3和Qwen-2.5的實驗表明,我們的方法超越了內在的自我修正能力,並達到了依賴外部獎勵模型的系統的相當性能。