Verständnis des Denkprozesses von Reasoning-Modellen: Eine Perspektive aus Schoenfelds Episodentheorie
Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory
September 18, 2025
papers.authors: Ming Li, Nan Zhang, Chenrui Fan, Hong Jiao, Yanbin Fu, Sydney Peters, Qingshu Xu, Robert Lissitz, Tianyi Zhou
cs.AI
papers.abstract
Während Large Reasoning Models (LRMs) umfangreiche Ketten von Denkprozessen (Chain-of-Thought) generieren, fehlt ein prinzipieller Rahmen, um zu verstehen, wie diese Gedanken strukturiert sind. In diesem Artikel führen wir einen neuartigen Ansatz ein, indem wir Schoenfelds Episodentheorie, ein klassisches kognitives Rahmenwerk für menschliches mathematisches Problemlösen, zur Analyse der Denkspuren von LRMs anwenden. Wir haben Tausende von Sätzen und Absätzen aus modellgenerierten Lösungen für mathematische Probleme mit sieben kognitiven Labels (z. B. Planen, Implementieren, Überprüfen) annotiert. Das Ergebnis ist der erste öffentlich verfügbare Benchmark für die feingranulare Analyse des maschinellen Denkens, einschließlich eines umfangreichen annotierten Korpus und detaillierter Annotationshandbücher. Unsere vorläufige Analyse zeigt deutliche Muster im Denken von LRMs, wie z. B. die Übergangsdynamik zwischen kognitiven Zuständen. Dieser Rahmen bietet eine theoretisch fundierte Methodik zur Interpretation der Kognition von LRMs und ermöglicht zukünftige Arbeiten an kontrollierbareren und transparenteren Denksystemen.
English
While Large Reasoning Models (LRMs) generate extensive chain-of-thought
reasoning, we lack a principled framework for understanding how these thoughts
are structured. In this paper, we introduce a novel approach by applying
Schoenfeld's Episode Theory, a classic cognitive framework for human
mathematical problem-solving, to analyze the reasoning traces of LRMs. We
annotated thousands of sentences and paragraphs from model-generated solutions
to math problems using seven cognitive labels (e.g., Plan, Implement, Verify).
The result is the first publicly available benchmark for the fine-grained
analysis of machine reasoning, including a large annotated corpus and detailed
annotation guidebooks. Our preliminary analysis reveals distinct patterns in
LRM reasoning, such as the transition dynamics between cognitive states. This
framework provides a theoretically grounded methodology for interpreting LRM
cognition and enables future work on more controllable and transparent
reasoning systems.