Die Illusion des Denkens: Stärken und Grenzen von Reasoning-Modellen durch die Linse der Problemkomplexität verstehen
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
June 7, 2025
Autoren: Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar
cs.AI
Zusammenfassung
Aktuelle Generationen von Sprachmodellen haben Large Reasoning Models (LRMs) eingeführt, die detaillierte Denkprozesse generieren, bevor sie Antworten liefern. Obwohl diese Modelle eine verbesserte Leistung bei Reasoning-Benchmarks zeigen, bleiben ihre grundlegenden Fähigkeiten, Skalierungseigenschaften und Grenzen unzureichend verstanden. Aktuelle Bewertungen konzentrieren sich hauptsächlich auf etablierte Mathematik- und Programmier-Benchmarks, wobei die Genauigkeit der endgültigen Antwort im Vordergrund steht. Dieses Bewertungsparadigma leidet jedoch oft unter Kontamination und bietet keine Einblicke in die Reasoning-Spuren. In dieser Arbeit untersuchen wir diese Lücken systematisch mit Hilfe kontrollierbarer Puzzle-Umgebungen, die eine präzise Manipulation der Komplexität bei gleichbleibenden logischen Strukturen ermöglichen. Dieser Aufbau ermöglicht die Analyse nicht nur der endgültigen Antworten, sondern auch der internen Reasoning-Spuren, was Einblicke in die Denkweise von LRMs bietet. Durch umfangreiche Experimente zeigen wir, dass LRMs jenseits bestimmter Komplexitäten einen vollständigen Genauigkeitsverlust erleiden. Darüber hinaus zeigen sie eine kontraintuitive Skalierungsgrenze: ihr Reasoning-Aufwand steigt mit der Problemkomplexität bis zu einem bestimmten Punkt, nimmt dann jedoch ab, obwohl noch Token-Budget vorhanden ist. Durch den Vergleich von LRMs mit ihren Standard-LLM-Pendants unter gleichen Inferenz-Ressourcen identifizieren wir drei Leistungsregime: (1) Aufgaben mit geringer Komplexität, bei denen Standardmodelle LRMs übertreffen, (2) Aufgaben mittlerer Komplexität, bei denen LRMs einen Vorteil zeigen, und (3) Aufgaben hoher Komplexität, bei denen beide Modelle einen vollständigen Zusammenbruch erleben. Wir fanden heraus, dass LRMs Grenzen bei der exakten Berechnung haben: sie scheitern daran, explizite Algorithmen zu verwenden, und argumentieren inkonsistent über verschiedene Skalen hinweg. Wir untersuchen die Reasoning-Spuren auch tiefergehend, studieren die Muster der erkundeten Lösungen und analysieren das Rechenverhalten der Modelle, was ihre Stärken und Grenzen beleuchtet und Fragen zu ihren Reasoning-Fähigkeiten aufwirft.
English
Recent generations of language models have introduced Large Reasoning Models
(LRMs) that generate detailed thinking processes before providing answers.
While these models demonstrate improved performance on reasoning benchmarks,
their fundamental capabilities, scaling properties, and limitations remain
insufficiently understood. Current evaluations primarily focus on established
math and coding benchmarks, emphasizing final answer accuracy. However, this
evaluation paradigm often suffers from contamination and does not provide
insights into the reasoning traces. In this work, we systematically investigate
these gaps with the help of controllable puzzle environments that allow precise
manipulation of complexity while maintaining consistent logical structures.
This setup enables the analysis of not only final answers but also the internal
reasoning traces, offering insights into how LRMs think. Through extensive
experiments, we show that LRMs face a complete accuracy collapse beyond certain
complexities. Moreover, they exhibit a counterintuitive scaling limit: their
reasoning effort increases with problem complexity up to a point, then declines
despite having remaining token budget. By comparing LRMs with their standard
LLM counterparts under same inference compute, we identify three performance
regimes: (1) low-complexity tasks where standard models outperform LRMs, (2)
medium-complexity tasks where LRMs demonstrates advantage, and (3)
high-complexity tasks where both models face complete collapse. We found that
LRMs have limitations in exact computation: they fail to use explicit
algorithms and reason inconsistently across scales. We also investigate the
reasoning traces in more depth, studying the patterns of explored solutions and
analyzing the models' computational behavior, shedding light on their
strengths, limitations, and raising questions about their reasoning
capabilities.