Comprendre le processus de pensée des modèles de raisonnement : une perspective issue de la théorie des épisodes de Schoenfeld
Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory
September 18, 2025
papers.authors: Ming Li, Nan Zhang, Chenrui Fan, Hong Jiao, Yanbin Fu, Sydney Peters, Qingshu Xu, Robert Lissitz, Tianyi Zhou
cs.AI
papers.abstract
Alors que les modèles de raisonnement à grande échelle (LRM) génèrent des chaînes de pensée étendues, nous manquons d'un cadre méthodologique pour comprendre comment ces pensées sont structurées. Dans cet article, nous introduisons une approche novatrice en appliquant la théorie des épisodes de Schoenfeld, un cadre cognitif classique pour la résolution de problèmes mathématiques humains, afin d'analyser les traces de raisonnement des LRM. Nous avons annoté des milliers de phrases et de paragraphes issus de solutions générées par des modèles pour des problèmes mathématiques en utilisant sept étiquettes cognitives (par exemple, Planifier, Implémenter, Vérifier). Le résultat est le premier benchmark public pour l'analyse fine du raisonnement machine, comprenant un large corpus annoté et des guides d'annotation détaillés. Notre analyse préliminaire révèle des motifs distincts dans le raisonnement des LRM, tels que les dynamiques de transition entre états cognitifs. Ce cadre fournit une méthodologie théoriquement fondée pour interpréter la cognition des LRM et permet des travaux futurs sur des systèmes de raisonnement plus contrôlables et transparents.
English
While Large Reasoning Models (LRMs) generate extensive chain-of-thought
reasoning, we lack a principled framework for understanding how these thoughts
are structured. In this paper, we introduce a novel approach by applying
Schoenfeld's Episode Theory, a classic cognitive framework for human
mathematical problem-solving, to analyze the reasoning traces of LRMs. We
annotated thousands of sentences and paragraphs from model-generated solutions
to math problems using seven cognitive labels (e.g., Plan, Implement, Verify).
The result is the first publicly available benchmark for the fine-grained
analysis of machine reasoning, including a large annotated corpus and detailed
annotation guidebooks. Our preliminary analysis reveals distinct patterns in
LRM reasoning, such as the transition dynamics between cognitive states. This
framework provides a theoretically grounded methodology for interpreting LRM
cognition and enables future work on more controllable and transparent
reasoning systems.