Quand le raisonnement rencontre ses lois
When Reasoning Meets Its Laws
December 19, 2025
papers.authors: Junyu Zhang, Yifan Sun, Tianang Leng, Jingyan Shen, Liu Ziyin, Paul Pu Liang, Huan Zhang
cs.AI
papers.abstract
Malgré les performances supérieures des Grands Modèles de Raisonnement (LRMs), leurs comportements déductifs sont souvent contre-intuitifs, conduisant à des capacités de raisonnement sous-optimales. Pour formaliser théoriquement les comportements de raisonnement souhaités, cet article présente les Lois du Raisonnement (LoRe), un cadre unifié qui caractérise les schémas de raisonnement intrinsèques des LRMs. Nous proposons d'abord une loi de calcul, basée sur l'hypothèse que la puissance de calcul dédiée au raisonnement devrait augmenter linéairement avec la complexité de la question. Au-delà du calcul, nous étendons LoRe avec une loi de précision supplémentaire. Étant donné que la complexité des questions est difficile à quantifier en pratique, nous examinons ces hypothèses via deux propriétés des lois : la monotonie et la compositionnalité. Nous introduisons donc LoRe-Bench, un benchmark qui mesure systématiquement ces deux propriétés gérables pour les grands modèles de raisonnement. L'évaluation montre que la plupart des modèles de raisonnement présentent une monotonie raisonnable mais manquent de compositionnalité. En réponse, nous développons une méthode de fine-tuning efficace qui renforce la compositionnalité de la loi de calcul. Des études empiriques approfondies démontrent qu'une meilleure conformité aux lois de calcul entraîne une amélioration constante des performances de raisonnement sur plusieurs benchmarks, et révèle des effets synergiques entre les propriétés et les lois. Page du projet : https://lore-project.github.io/
English
Despite the superior performance of Large Reasoning Models (LRMs), their reasoning behaviors are often counterintuitive, leading to suboptimal reasoning capabilities. To theoretically formalize the desired reasoning behaviors, this paper presents the Laws of Reasoning (LoRe), a unified framework that characterizes intrinsic reasoning patterns in LRMs. We first propose compute law with the hypothesis that the reasoning compute should scale linearly with question complexity. Beyond compute, we extend LoRe with a supplementary accuracy law. Since the question complexity is difficult to quantify in practice, we examine these hypotheses by two properties of the laws, monotonicity and compositionality. We therefore introduce LoRe-Bench, a benchmark that systematically measures these two tractable properties for large reasoning models. Evaluation shows that most reasoning models exhibit reasonable monotonicity but lack compositionality. In response, we develop an effective finetuning approach that enforces compute-law compositionality. Extensive empirical studies demonstrate that better compliance with compute laws yields consistently improved reasoning performance on multiple benchmarks, and uncovers synergistic effects across properties and laws. Project page: https://lore-project.github.io/