Подождите, нам не нужно "ждать"! Удаление токенов мышления повышает эффективность рассуждений
Wait, We Don't Need to "Wait"! Removing Thinking Tokens Improves Reasoning Efficiency
June 10, 2025
Авторы: Chenlong Wang, Yuanning Feng, Dongping Chen, Zhaoyang Chu, Ranjay Krishna, Tianyi Zhou
cs.AI
Аннотация
Последние достижения в области крупных моделей рассуждений позволили реализовать сложное пошаговое мышление, однако часто сопровождаются избыточным анализом, что приводит к многословным и избыточным выводам, снижающим эффективность. В данном исследовании мы изучаем, является ли явное саморефлексия, обозначаемая токенами, такими как "Подожди" и "Хм", необходимой для продвинутого рассуждения. Мы предлагаем подход NoWait, простой, но эффективный метод, который отключает явную саморефлексию, подавляя эти токены в процессе вывода. Масштабные эксперименты на десяти тестовых наборах, охватывающих текстовые, визуальные и видеозадачи, показывают, что NoWait сокращает длину цепочки рассуждений на 27%-51% в пяти сериях моделей R1, не снижая их полезности. Таким образом, NoWait предлагает простое в использовании решение для эффективного и сохраняющего полезность многомодального рассуждения.
English
Recent advances in large reasoning models have enabled complex, step-by-step
reasoning but often introduce significant overthinking, resulting in verbose
and redundant outputs that hinder efficiency. In this study, we examine whether
explicit self-reflection, signaled by tokens such as "Wait" and "Hmm", is
necessary for advanced reasoning. We propose NoWait, a simple yet effective
approach that disables explicit self-reflection by suppressing these tokens
during inference. Extensive experiments on ten benchmarks across textual,
visual, and video reasoning tasks show that NoWait reduces chain-of-thought
trajectory length by up to 27%-51% in five R1-style model series, without
compromising model utility. NoWait thus offers a plug-and-play solution for
efficient and utility-preserving multimodal reasoning.