ChatPaper.aiChatPaper

Attendez, nous n'avons pas besoin d'"attendre" ! Supprimer les tokens de réflexion améliore l'efficacité du raisonnement.

Wait, We Don't Need to "Wait"! Removing Thinking Tokens Improves Reasoning Efficiency

June 10, 2025
Auteurs: Chenlong Wang, Yuanning Feng, Dongping Chen, Zhaoyang Chu, Ranjay Krishna, Tianyi Zhou
cs.AI

Résumé

Les récents progrès dans les modèles de raisonnement à grande échelle ont permis un raisonnement complexe et étape par étape, mais introduisent souvent une surréflexion significative, entraînant des sorties verbeuses et redondantes qui nuisent à l'efficacité. Dans cette étude, nous examinons si une auto-réflexion explicite, signalée par des tokens tels que "Attends" et "Hmm", est nécessaire pour un raisonnement avancé. Nous proposons NoWait, une approche simple mais efficace qui désactive l'auto-réflexion explicite en supprimant ces tokens lors de l'inférence. Des expériences approfondies sur dix benchmarks couvrant des tâches de raisonnement textuel, visuel et vidéo montrent que NoWait réduit la longueur des trajectoires de raisonnement en chaîne de 27 % à 51 % dans cinq séries de modèles de style R1, sans compromettre l'utilité du modèle. NoWait offre ainsi une solution plug-and-play pour un raisonnement multimodal efficace et préservant l'utilité.
English
Recent advances in large reasoning models have enabled complex, step-by-step reasoning but often introduce significant overthinking, resulting in verbose and redundant outputs that hinder efficiency. In this study, we examine whether explicit self-reflection, signaled by tokens such as "Wait" and "Hmm", is necessary for advanced reasoning. We propose NoWait, a simple yet effective approach that disables explicit self-reflection by suppressing these tokens during inference. Extensive experiments on ten benchmarks across textual, visual, and video reasoning tasks show that NoWait reduces chain-of-thought trajectory length by up to 27%-51% in five R1-style model series, without compromising model utility. NoWait thus offers a plug-and-play solution for efficient and utility-preserving multimodal reasoning.
PDF392June 17, 2025