Иллюзия мышления: понимание сильных сторон и ограничений моделей рассуждений через призму сложности задач
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
June 7, 2025
Авторы: Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar
cs.AI
Аннотация
Последние поколения языковых моделей представили Большие Модели Рассуждений (БМР), которые генерируют детализированные процессы мышления перед предоставлением ответов. Хотя эти модели демонстрируют улучшенную производительность на тестах, связанных с рассуждениями, их фундаментальные возможности, свойства масштабирования и ограничения остаются недостаточно изученными. Текущие оценки в основном сосредоточены на устоявшихся тестах по математике и программированию, акцентируя внимание на точности конечных ответов. Однако такая парадигма оценки часто страдает от проблемы "загрязнения" и не предоставляет информации о траекториях рассуждений. В данной работе мы систематически исследуем эти пробелы с помощью контролируемых головоломок, которые позволяют точно управлять сложностью, сохраняя при этом согласованную логическую структуру. Такая настройка позволяет анализировать не только конечные ответы, но и внутренние траектории рассуждений, давая представление о том, как БМР мыслят. В ходе обширных экспериментов мы показываем, что БМР сталкиваются с полным коллапсом точности за пределами определённого уровня сложности. Более того, они демонстрируют контринтуитивный предел масштабирования: их усилия по рассуждению увеличиваются с ростом сложности задачи до определённого момента, а затем снижаются, несмотря на оставшийся бюджет токенов. Сравнивая БМР с их стандартными аналогами LLM при одинаковых вычислительных ресурсах, мы выделяем три режима производительности: (1) задачи низкой сложности, где стандартные модели превосходят БМР, (2) задачи средней сложности, где БМР демонстрируют преимущество, и (3) задачи высокой сложности, где обе модели сталкиваются с полным коллапсом. Мы обнаружили, что БМР имеют ограничения в точных вычислениях: они не способны использовать явные алгоритмы и рассуждают непоследовательно на разных уровнях сложности. Мы также более глубоко исследуем траектории рассуждений, изучая паттерны исследуемых решений и анализируя вычислительное поведение моделей, что проливает свет на их сильные стороны, ограничения и ставит вопросы об их способностях к рассуждению.
English
Recent generations of language models have introduced Large Reasoning Models
(LRMs) that generate detailed thinking processes before providing answers.
While these models demonstrate improved performance on reasoning benchmarks,
their fundamental capabilities, scaling properties, and limitations remain
insufficiently understood. Current evaluations primarily focus on established
math and coding benchmarks, emphasizing final answer accuracy. However, this
evaluation paradigm often suffers from contamination and does not provide
insights into the reasoning traces. In this work, we systematically investigate
these gaps with the help of controllable puzzle environments that allow precise
manipulation of complexity while maintaining consistent logical structures.
This setup enables the analysis of not only final answers but also the internal
reasoning traces, offering insights into how LRMs think. Through extensive
experiments, we show that LRMs face a complete accuracy collapse beyond certain
complexities. Moreover, they exhibit a counterintuitive scaling limit: their
reasoning effort increases with problem complexity up to a point, then declines
despite having remaining token budget. By comparing LRMs with their standard
LLM counterparts under same inference compute, we identify three performance
regimes: (1) low-complexity tasks where standard models outperform LRMs, (2)
medium-complexity tasks where LRMs demonstrates advantage, and (3)
high-complexity tasks where both models face complete collapse. We found that
LRMs have limitations in exact computation: they fail to use explicit
algorithms and reason inconsistently across scales. We also investigate the
reasoning traces in more depth, studying the patterns of explored solutions and
analyzing the models' computational behavior, shedding light on their
strengths, limitations, and raising questions about their reasoning
capabilities.