ChatPaper.aiChatPaper

推論モデルの思考プロセスを理解する:シェーンフェルドのエピソード理論からの視点

Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory

September 18, 2025
著者: Ming Li, Nan Zhang, Chenrui Fan, Hong Jiao, Yanbin Fu, Sydney Peters, Qingshu Xu, Robert Lissitz, Tianyi Zhou
cs.AI

要旨

大規模推論モデル(LRM)は広範な連鎖思考推論を生成するが、これらの思考がどのように構造化されているかを理解するための体系的な枠組みが欠けている。本論文では、人間の数学的問題解決における古典的認知フレームワークであるSchoenfeldのエピソード理論を適用し、LRMの推論トレースを分析する新たなアプローチを提案する。数学問題に対するモデル生成の解答から数千の文や段落を抽出し、7つの認知ラベル(例:計画、実施、検証)を用いて注釈を付与した。その結果、機械推論の詳細な分析のための初の公開ベンチマークが作成され、大規模な注釈付きコーパスと詳細な注釈ガイドブックが提供された。予備分析では、認知状態間の遷移ダイナミクスなど、LRM推論における特徴的なパターンが明らかになった。この枠組みは、LRMの認知を解釈するための理論的基盤に基づく方法論を提供し、より制御可能で透明性の高い推論システムの今後の研究を可能にする。
English
While Large Reasoning Models (LRMs) generate extensive chain-of-thought reasoning, we lack a principled framework for understanding how these thoughts are structured. In this paper, we introduce a novel approach by applying Schoenfeld's Episode Theory, a classic cognitive framework for human mathematical problem-solving, to analyze the reasoning traces of LRMs. We annotated thousands of sentences and paragraphs from model-generated solutions to math problems using seven cognitive labels (e.g., Plan, Implement, Verify). The result is the first publicly available benchmark for the fine-grained analysis of machine reasoning, including a large annotated corpus and detailed annotation guidebooks. Our preliminary analysis reveals distinct patterns in LRM reasoning, such as the transition dynamics between cognitive states. This framework provides a theoretically grounded methodology for interpreting LRM cognition and enables future work on more controllable and transparent reasoning systems.
PDF122September 26, 2025