ChatPaper.aiChatPaper

Penser Juste : Apprendre à Atténuer la Sous-Sur Pensée par une Compression Adaptative et Attentive

Think Right: Learning to Mitigate Under-Over Thinking via Adaptive, Attentive Compression

October 2, 2025
papers.authors: Joykirat Singh, Justin Chih-Yao Chen, Archiki Prasad, Elias Stengel-Eskin, Akshay Nambi, Mohit Bansal
cs.AI

papers.abstract

Les modèles de pensée récents résolvent des tâches de raisonnement complexes en augmentant les ressources de calcul au moment du test, mais cette augmentation doit être allouée en fonction de la difficulté de la tâche. D’un côté, un raisonnement trop court (sous-raisonnement) entraîne des erreurs sur des problèmes plus difficiles nécessitant des étapes de raisonnement prolongées ; de l’autre, un raisonnement excessivement long (sur-raisonnement) peut être inefficace en termes de tokens, générant des étapes inutiles même après avoir atteint une solution intermédiaire correcte. Nous qualifions cela de sous-adaptativité, où le modèle ne parvient pas à moduler de manière appropriée la longueur de sa réponse face à des problèmes de difficulté variable. Pour remédier à la sous-adaptativité et trouver un équilibre entre sous-raisonnement et sur-raisonnement, nous proposons TRAAC (Think Right with Adaptive, Attentive Compression), une méthode de renforcement en ligne post-entraînement qui exploite l’auto-attention du modèle sur une trajectoire de raisonnement étendue pour identifier les étapes importantes et éliminer celles redondantes. TRAAC estime également la difficulté et l’intègre dans les récompenses d’entraînement, apprenant ainsi à allouer un budget de raisonnement proportionnel à la difficulté de l’exemple. Notre approche améliore la précision, réduit les étapes de raisonnement et permet une pensée adaptative par rapport aux modèles de base et à d’autres méthodes de renforcement. Sur une variété de tâches (AIME, AMC, GPQA-D, BBEH), TRAAC (Qwen3-4B) obtient un gain de précision absolu moyen de 8,4 % avec une réduction relative de la longueur du raisonnement de 36,8 % par rapport au modèle de base, et un gain de précision de 7,9 % accompagné d’une réduction de longueur de 29,4 % par rapport au meilleur modèle de renforcement. TRAAC montre également une forte généralisation : bien que nos modèles soient entraînés sur des ensembles de données mathématiques, ils montrent des gains en précision et en efficacité sur des ensembles de données non mathématiques hors distribution comme GPQA-D, BBEH et OptimalThinkingBench. Notre analyse confirme en outre que TRAAC fournit des ajustements fins du budget de raisonnement en fonction de la difficulté, et qu’une combinaison de calibration de la difficulté de la tâche et de compression basée sur l’attention produit des gains sur des tâches diverses.
English
Recent thinking models solve complex reasoning tasks by scaling test-time compute, but this scaling must be allocated in line with task difficulty. On one hand, short reasoning (underthinking) leads to errors on harder problems that require extended reasoning steps; but, excessively long reasoning (overthinking) can be token-inefficient, generating unnecessary steps even after reaching a correct intermediate solution. We refer to this as under-adaptivity, where the model fails to modulate its response length appropriately given problems of varying difficulty. To address under-adaptivity and strike a balance between under- and overthinking, we propose TRAAC (Think Right with Adaptive, Attentive Compression), an online post-training RL method that leverages the model's self-attention over a long reasoning trajectory to identify important steps and prune redundant ones. TRAAC also estimates difficulty and incorporates it into training rewards, thereby learning to allocate reasoning budget commensurate with example difficulty. Our approach improves accuracy, reduces reasoning steps, and enables adaptive thinking compared to base models and other RL baselines. Across a variety of tasks (AIME, AMC, GPQA-D, BBEH), TRAAC (Qwen3-4B) achieves an average absolute accuracy gain of 8.4% with a relative reduction in reasoning length of 36.8% compared to the base model, and a 7.9% accuracy gain paired with a 29.4% length drop compared to the best RL baseline. TRAAC also shows strong generalization: although our models are trained on math datasets, they show accuracy and efficiency gains on out-of-distribution non-math datasets like GPQA-D, BBEH, and OptimalThinkingBench. Our analysis further verifies that TRAAC provides fine-grained adjustments to thinking budget based on difficulty and that a combination of task-difficulty calibration and attention-based compression yields gains across diverse tasks.
PDF02October 3, 2025