ChatPaper.aiChatPaper

Комментарий к статье "Иллюзия мышления: понимание сильных сторон и ограничений моделей рассуждений через призму сложности задач"

Comment on The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity

June 10, 2025
Авторы: C. Opus, A. Lawsen
cs.AI

Аннотация

Shojaee et al. (2025) сообщают, что крупные модели рассуждений (LRMs) демонстрируют «коллапс точности» на задачах планирования, превышающих определённые пороги сложности. Мы показываем, что их результаты в основном отражают ограничения экспериментального дизайна, а не фундаментальные сбои в рассуждениях. Наш анализ выявляет три ключевые проблемы: (1) эксперименты с задачей «Ханойская башня» систематически превышают ограничения на количество выходных токенов моделей в точках, указанных как сбои, причём модели явно признают эти ограничения в своих выводах; (2) автоматизированная система оценки авторов не различает сбои в рассуждениях и практические ограничения, что приводит к ошибочной классификации возможностей моделей; (3) что наиболее тревожно, их тесты на задачу «Переправа через реку» включают математически невозможные случаи для N > 5 из-за недостаточной вместимости лодки, однако модели оцениваются как сбои за нерешение этих нерешаемых задач. Когда мы контролируем эти экспериментальные артефакты, запрашивая генерацию функций вместо исчерпывающих списков ходов, предварительные эксперименты на нескольких моделях показывают высокую точность на задачах «Ханойской башни», ранее описанных как полные сбои. Эти результаты подчеркивают важность тщательного экспериментального дизайна при оценке способностей ИИ к рассуждениям.
English
Shojaee et al. (2025) report that Large Reasoning Models (LRMs) exhibit "accuracy collapse" on planning puzzles beyond certain complexity thresholds. We demonstrate that their findings primarily reflect experimental design limitations rather than fundamental reasoning failures. Our analysis reveals three critical issues: (1) Tower of Hanoi experiments systematically exceed model output token limits at reported failure points, with models explicitly acknowledging these constraints in their outputs; (2) The authors' automated evaluation framework fails to distinguish between reasoning failures and practical constraints, leading to misclassification of model capabilities; (3) Most concerningly, their River Crossing benchmarks include mathematically impossible instances for N > 5 due to insufficient boat capacity, yet models are scored as failures for not solving these unsolvable problems. When we control for these experimental artifacts, by requesting generating functions instead of exhaustive move lists, preliminary experiments across multiple models indicate high accuracy on Tower of Hanoi instances previously reported as complete failures. These findings highlight the importance of careful experimental design when evaluating AI reasoning capabilities.
PDF123June 13, 2025