L'illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
June 7, 2025
Autori: Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar
cs.AI
Abstract
Le ultime generazioni di modelli linguistici hanno introdotto i Large Reasoning Models (LRM), che generano processi di pensiero dettagliati prima di fornire risposte. Sebbene questi modelli dimostrino prestazioni migliorate nei benchmark di ragionamento, le loro capacità fondamentali, proprietà di scalabilità e limitazioni rimangono insufficientemente comprese. Le valutazioni attuali si concentrano principalmente su benchmark consolidati di matematica e programmazione, enfatizzando l'accuratezza delle risposte finali. Tuttavia, questo paradigma di valutazione spesso soffre di contaminazione e non fornisce approfondimenti sulle tracce di ragionamento. In questo lavoro, indaghiamo sistematicamente queste lacune con l'aiuto di ambienti di puzzle controllabili che consentono una manipolazione precisa della complessità mantenendo strutture logiche consistenti. Questa configurazione permette l'analisi non solo delle risposte finali, ma anche delle tracce di ragionamento interne, offrendo intuizioni su come pensano gli LRM. Attraverso esperimenti estesi, dimostriamo che gli LRM affrontano un collasso completo dell'accuratezza oltre determinate complessità. Inoltre, mostrano un limite di scalabilità controintuitivo: il loro sforzo di ragionamento aumenta con la complessità del problema fino a un certo punto, per poi diminuire nonostante rimanga un budget di token disponibile. Confrontando gli LRM con le loro controparti standard LLM sotto lo stesso calcolo di inferenza, identifichiamo tre regimi di prestazione: (1) compiti a bassa complessità in cui i modelli standard superano gli LRM, (2) compiti a media complessità in cui gli LRM dimostrano un vantaggio, e (3) compiti ad alta complessità in cui entrambi i modelli affrontano un collasso completo. Abbiamo scoperto che gli LRM hanno limitazioni nel calcolo esatto: non riescono a utilizzare algoritmi espliciti e ragionano in modo inconsistente su diverse scale. Investigiamo inoltre più a fondo le tracce di ragionamento, studiando i modelli delle soluzioni esplorate e analizzando il comportamento computazionale dei modelli, gettando luce sui loro punti di forza, limitazioni e sollevando domande sulle loro capacità di ragionamento.
English
Recent generations of language models have introduced Large Reasoning Models
(LRMs) that generate detailed thinking processes before providing answers.
While these models demonstrate improved performance on reasoning benchmarks,
their fundamental capabilities, scaling properties, and limitations remain
insufficiently understood. Current evaluations primarily focus on established
math and coding benchmarks, emphasizing final answer accuracy. However, this
evaluation paradigm often suffers from contamination and does not provide
insights into the reasoning traces. In this work, we systematically investigate
these gaps with the help of controllable puzzle environments that allow precise
manipulation of complexity while maintaining consistent logical structures.
This setup enables the analysis of not only final answers but also the internal
reasoning traces, offering insights into how LRMs think. Through extensive
experiments, we show that LRMs face a complete accuracy collapse beyond certain
complexities. Moreover, they exhibit a counterintuitive scaling limit: their
reasoning effort increases with problem complexity up to a point, then declines
despite having remaining token budget. By comparing LRMs with their standard
LLM counterparts under same inference compute, we identify three performance
regimes: (1) low-complexity tasks where standard models outperform LRMs, (2)
medium-complexity tasks where LRMs demonstrates advantage, and (3)
high-complexity tasks where both models face complete collapse. We found that
LRMs have limitations in exact computation: they fail to use explicit
algorithms and reason inconsistently across scales. We also investigate the
reasoning traces in more depth, studying the patterns of explored solutions and
analyzing the models' computational behavior, shedding light on their
strengths, limitations, and raising questions about their reasoning
capabilities.