Quando il ragionamento incontra le sue leggi
When Reasoning Meets Its Laws
December 19, 2025
Autori: Junyu Zhang, Yifan Sun, Tianang Leng, Jingyan Shen, Liu Ziyin, Paul Pu Liang, Huan Zhang
cs.AI
Abstract
Nonostante le prestazioni superiori dei Large Reasoning Model (LRM), i loro comportamenti deduttivi sono spesso controintuitivi, portando a capacità di ragionamento subottimali. Per formalizzare teoricamente i comportamenti deduttivi desiderati, questo articolo presenta le Leggi del Ragionamento (Laws of Reasoning - LoRe), un quadro unificato che caratterizza i modelli di ragionamento intrinseci negli LRM. Inizialmente proponiamo una legge computazionale basata sull'ipotesi che la potenza di calcolo dedicata al ragionamento debba scalare linearmente con la complessità della domanda. Oltre all'aspetto computazionale, estendiamo LoRe con una legge supplementare sull'accuratezza. Poiché la complessità della domanda è difficile da quantificare nella pratica, esaminiamo queste ipotesi attraverso due proprietà delle leggi: la monotonicità e la composizionalità. Introduciamo quindi LoRe-Bench, un benchmark che misura sistematicamente queste due proprietà trattabili per i modelli di ragionamento su larga scala. La valutazione mostra che la maggior parte dei modelli di ragionamento presenta una monotonicità ragionevole ma manca di composizionalità. In risposta a ciò, sviluppiamo un efficace approccio di fine-tuning che impone la composizionalità della legge computazionale. Studi empirici estesi dimostrano che una migliore conformità alle leggi computazionali produce un miglioramento costante delle prestazioni deduttive su molteplici benchmark e rivela effetti sinergici tra le proprietà e le leggi. Pagina del progetto: https://lore-project.github.io/
English
Despite the superior performance of Large Reasoning Models (LRMs), their reasoning behaviors are often counterintuitive, leading to suboptimal reasoning capabilities. To theoretically formalize the desired reasoning behaviors, this paper presents the Laws of Reasoning (LoRe), a unified framework that characterizes intrinsic reasoning patterns in LRMs. We first propose compute law with the hypothesis that the reasoning compute should scale linearly with question complexity. Beyond compute, we extend LoRe with a supplementary accuracy law. Since the question complexity is difficult to quantify in practice, we examine these hypotheses by two properties of the laws, monotonicity and compositionality. We therefore introduce LoRe-Bench, a benchmark that systematically measures these two tractable properties for large reasoning models. Evaluation shows that most reasoning models exhibit reasonable monotonicity but lack compositionality. In response, we develop an effective finetuning approach that enforces compute-law compositionality. Extensive empirical studies demonstrate that better compliance with compute laws yields consistently improved reasoning performance on multiple benchmarks, and uncovers synergistic effects across properties and laws. Project page: https://lore-project.github.io/