ChatPaper.aiChatPaper

大規模言語モデルの推論における内部確率と自己整合性を橋渡しする理論的研究

A Theoretical Study on Bridging Internal Probability and Self-Consistency for LLM Reasoning

October 17, 2025
著者: Zhi Zhou, Yuhao Tan, Zenan Li, Yuan Yao, Lan-Zhe Guo, Yu-Feng Li, Xiaoxing Ma
cs.AI

要旨

テストタイムスケーリングは、大規模言語モデル(LLM)の推論性能を向上させるために、計算リソースを追加することを目指す。この分野で広く用いられているアプローチは、サンプリングベースのテストタイムスケーリング手法であり、推論時に与えられた入力に対して複数の推論パスを生成することで推論を強化する。しかし、その実用的な成功にもかかわらず、理論的な基盤は未だ十分に探求されていない。本論文では、信頼度推定の観点に基づいて、サンプリングベースのテストタイムスケーリング手法を分析するための初めての理論的フレームワークを提供する。このフレームワークに基づき、自己一貫性とパープレキシティという二つの主要なパラダイムを分析し、自己一貫性は推定誤差が高く、パープレキシティはモデル誤差が大きく、推定誤差の収束が劣化する可能性があるという重要な限界を明らかにする。これらの限界を解決するために、我々はRPCというハイブリッド手法を提案する。RPCは、パープレキシティ一貫性と推論プルーニングという二つの主要なコンポーネントを通じて、理論的洞察を活用する。パープレキシティ一貫性は、自己一貫性とパープレキシティの長所を組み合わせ、推定誤差の収束速度を線形から指数関数的に向上させながら、モデル誤差を維持する。推論プルーニングは、低確率の推論パスを排除することで劣化を防ぐ。7つのベンチマークデータセットにおける理論分析と実証結果は、RPCが推論誤差を削減する強力な可能性を持つことを示している。特に、RPCは自己一貫性と同等の推論性能を達成しつつ、信頼度の信頼性を向上させるだけでなく、サンプリングコストを50%削減する。コードとリソースはhttps://wnjxyk.github.io/RPCで公開されている。
English
Test-time scaling seeks to improve the reasoning performance of large language models (LLMs) by adding computational resources. A prevalent approach within the field is sampling-based test-time scaling methods, which enhance reasoning by generating multiple reasoning paths for a given input during inference. However, despite its practical success, the theoretical foundations remain underexplored. In this paper, we provide the first theoretical framework for analyzing sampling-based test-time scaling methods, grounded in the perspective of confidence estimation. Based on the framework, we analyze two dominant paradigms: self-consistency and perplexity, and reveal key limitations: self-consistency suffers from high estimation error while perplexity exhibits substantial modeling error and possible degradation of the estimation error convergence. To address these limitations, we introduce RPC, a hybrid method that leverages our theoretical insights through two key components: Perplexity Consistency and Reasoning Pruning. Perplexity Consistency combines the strengths of self-consistency and perplexity, boosting the convergence rate of estimation error from linear to exponential while preserving model error. Reasoning Pruning prevents degradation by eliminating low-probability reasoning paths. Both theoretical analysis and empirical results across seven benchmark datasets demonstrate that RPC has a strong potential for reducing reasoning error. Notably, RPC achieves reasoning performance comparable to self-consistency while not only enhancing confidence reliability but also reducing sampling costs by 50%. The code and resources are available at https://wnjxyk.github.io/RPC.
PDF1316October 20, 2025