ChatPaper.aiChatPaper

Richtig Denken: Lernen, Unter- und Überdenken durch adaptive, aufmerksame Kompression zu mildern

Think Right: Learning to Mitigate Under-Over Thinking via Adaptive, Attentive Compression

October 2, 2025
papers.authors: Joykirat Singh, Justin Chih-Yao Chen, Archiki Prasad, Elias Stengel-Eskin, Akshay Nambi, Mohit Bansal
cs.AI

papers.abstract

Aktuelle Denkmodelle lösen komplexe Aufgaben durch die Skalierung der Rechenleistung zur Testzeit, doch diese Skalierung muss in Abhängigkeit von der Aufgabenschwierigkeit erfolgen. Einerseits führt kurzes Denken (Unterdenken) zu Fehlern bei schwierigeren Problemen, die ausgedehnte Denkschritte erfordern; andererseits kann übermäßig langes Denken (Überdenken) token-ineffizient sein, da unnötige Schritte generiert werden, selbst nachdem eine korrekte Zwischenlösung erreicht wurde. Wir bezeichnen dies als Unteradaptivität, bei der das Modell nicht in der Lage ist, die Länge seiner Antwort angemessen an die unterschiedliche Schwierigkeit der Probleme anzupassen. Um die Unteradaptivität zu beheben und ein Gleichgewicht zwischen Unter- und Überdenken zu erreichen, schlagen wir TRAAC (Think Right with Adaptive, Attentive Compression) vor, eine Online-Nachtrainingsmethode mit Verstärkungslernen (RL), die die Selbstaufmerksamkeit des Modells über einen langen Denkpfad nutzt, um wichtige Schritte zu identifizieren und redundante zu entfernen. TRAAC schätzt zudem die Schwierigkeit und integriert sie in die Trainingsbelohnungen, wodurch es lernt, das Denkbudget entsprechend der Schwierigkeit der Beispiele zuzuteilen. Unser Ansatz verbessert die Genauigkeit, reduziert die Anzahl der Denkschritte und ermöglicht adaptives Denken im Vergleich zu Basismodellen und anderen RL-Baselines. Über eine Vielzahl von Aufgaben (AIME, AMC, GPQA-D, BBEH) erzielt TRAAC (Qwen3-4B) einen durchschnittlichen absoluten Genauigkeitsgewinn von 8,4 % bei einer relativen Reduktion der Denklänge von 36,8 % im Vergleich zum Basismodell sowie einen Genauigkeitsgewinn von 7,9 % bei einer Reduktion der Länge um 29,4 % im Vergleich zur besten RL-Baseline. TRAAC zeigt auch eine starke Generalisierungsfähigkeit: Obwohl unsere Modelle auf mathematischen Datensätzen trainiert wurden, zeigen sie Genauigkeits- und Effizienzgewinne bei außerhalb der Verteilung liegenden nicht-mathematischen Datensätzen wie GPQA-D, BBEH und OptimalThinkingBench. Unsere Analyse bestätigt weiterhin, dass TRAAC fein abgestimmte Anpassungen des Denkbudgets basierend auf der Schwierigkeit vornimmt und dass eine Kombination aus Schwierigkeitskalibrierung und aufmerksamkeitsbasierter Kompression Gewinne über diverse Aufgaben hinweg erzielt.
English
Recent thinking models solve complex reasoning tasks by scaling test-time compute, but this scaling must be allocated in line with task difficulty. On one hand, short reasoning (underthinking) leads to errors on harder problems that require extended reasoning steps; but, excessively long reasoning (overthinking) can be token-inefficient, generating unnecessary steps even after reaching a correct intermediate solution. We refer to this as under-adaptivity, where the model fails to modulate its response length appropriately given problems of varying difficulty. To address under-adaptivity and strike a balance between under- and overthinking, we propose TRAAC (Think Right with Adaptive, Attentive Compression), an online post-training RL method that leverages the model's self-attention over a long reasoning trajectory to identify important steps and prune redundant ones. TRAAC also estimates difficulty and incorporates it into training rewards, thereby learning to allocate reasoning budget commensurate with example difficulty. Our approach improves accuracy, reduces reasoning steps, and enables adaptive thinking compared to base models and other RL baselines. Across a variety of tasks (AIME, AMC, GPQA-D, BBEH), TRAAC (Qwen3-4B) achieves an average absolute accuracy gain of 8.4% with a relative reduction in reasoning length of 36.8% compared to the base model, and a 7.9% accuracy gain paired with a 29.4% length drop compared to the best RL baseline. TRAAC also shows strong generalization: although our models are trained on math datasets, they show accuracy and efficiency gains on out-of-distribution non-math datasets like GPQA-D, BBEH, and OptimalThinkingBench. Our analysis further verifies that TRAAC provides fine-grained adjustments to thinking budget based on difficulty and that a combination of task-difficulty calibration and attention-based compression yields gains across diverse tasks.
PDF02October 3, 2025