ChatPaper.aiChatPaper

Comprendre le processus de pensée des modèles de raisonnement : une perspective issue de la théorie des épisodes de Schoenfeld

Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory

September 18, 2025
papers.authors: Ming Li, Nan Zhang, Chenrui Fan, Hong Jiao, Yanbin Fu, Sydney Peters, Qingshu Xu, Robert Lissitz, Tianyi Zhou
cs.AI

papers.abstract

Alors que les modèles de raisonnement à grande échelle (LRM) génèrent des chaînes de pensée étendues, nous manquons d'un cadre méthodologique pour comprendre comment ces pensées sont structurées. Dans cet article, nous introduisons une approche novatrice en appliquant la théorie des épisodes de Schoenfeld, un cadre cognitif classique pour la résolution de problèmes mathématiques humains, afin d'analyser les traces de raisonnement des LRM. Nous avons annoté des milliers de phrases et de paragraphes issus de solutions générées par des modèles pour des problèmes mathématiques en utilisant sept étiquettes cognitives (par exemple, Planifier, Implémenter, Vérifier). Le résultat est le premier benchmark public pour l'analyse fine du raisonnement machine, comprenant un large corpus annoté et des guides d'annotation détaillés. Notre analyse préliminaire révèle des motifs distincts dans le raisonnement des LRM, tels que les dynamiques de transition entre états cognitifs. Ce cadre fournit une méthodologie théoriquement fondée pour interpréter la cognition des LRM et permet des travaux futurs sur des systèmes de raisonnement plus contrôlables et transparents.
English
While Large Reasoning Models (LRMs) generate extensive chain-of-thought reasoning, we lack a principled framework for understanding how these thoughts are structured. In this paper, we introduce a novel approach by applying Schoenfeld's Episode Theory, a classic cognitive framework for human mathematical problem-solving, to analyze the reasoning traces of LRMs. We annotated thousands of sentences and paragraphs from model-generated solutions to math problems using seven cognitive labels (e.g., Plan, Implement, Verify). The result is the first publicly available benchmark for the fine-grained analysis of machine reasoning, including a large annotated corpus and detailed annotation guidebooks. Our preliminary analysis reveals distinct patterns in LRM reasoning, such as the transition dynamics between cognitive states. This framework provides a theoretically grounded methodology for interpreting LRM cognition and enables future work on more controllable and transparent reasoning systems.
PDF132September 26, 2025