ChatPaper.aiChatPaper

Lassen Sie LLMs durch Selbstbrems-Tuning vom Überdenken befreien

Let LLMs Break Free from Overthinking via Self-Braking Tuning

May 20, 2025
Autoren: Haoran Zhao, Yuchen Yan, Yongliang Shen, Haolei Xu, Wenqi Zhang, Kaitao Song, Jian Shao, Weiming Lu, Jun Xiao, Yueting Zhuang
cs.AI

Zusammenfassung

Große Reasoning-Modelle (LRMs), wie OpenAI o1 und DeepSeek-R1, haben ihre Fähigkeiten zur logischen Schlussfolgerung erheblich verbessert, indem sie längere Gedankenketten generieren und dabei herausragende Leistungen in einer Vielzahl von Aufgaben demonstrieren. Dieser Leistungsgewinn geht jedoch mit einem erheblichen Anstieg redundanter Schlussfolgerungen während des Generierungsprozesses einher, was zu hohem Rechenaufwand führt und das Problem des Überdenkens verschärft. Obwohl zahlreiche bestehende Ansätze darauf abzielen, das Problem des Überdenkens zu lösen, stützen sie sich oft auf externe Eingriffe. In diesem Artikel schlagen wir ein neuartiges Framework vor, Self-Braking Tuning (SBT), das das Überdenken aus der Perspektive angeht, dem Modell zu ermöglichen, seinen eigenen Reasoning-Prozess zu regulieren und somit die Abhängigkeit von externen Kontrollmechanismen zu beseitigen. Wir entwickeln eine Reihe von Metriken zur Identifikation von Überdenken, die auf Standardantworten basieren, und entwerfen eine systematische Methode zur Erkennung redundanter Schlussfolgerungen. Diese Methode identifiziert präzise unnötige Schritte innerhalb des Reasoning-Pfads und generiert Trainingssignale für das Erlernen von Selbstregulierungsverhalten. Auf dieser Grundlage entwickeln wir eine umfassende Strategie zur Erstellung von Daten mit adaptiven Reasoning-Längen und führen einen innovativen Brems-Prompt-Mechanismus ein, der es dem Modell ermöglicht, auf natürliche Weise zu lernen, wann es den Reasoning-Prozess an einem geeigneten Punkt beenden soll. Experimente über mathematische Benchmarks (AIME, AMC, MATH500, GSM8K) zeigen, dass unsere Methode den Token-Verbrauch um bis zu 60 % reduziert, während sie eine vergleichbare Genauigkeit wie unbegrenzte Modelle beibehält.
English
Large reasoning models (LRMs), such as OpenAI o1 and DeepSeek-R1, have significantly enhanced their reasoning capabilities by generating longer chains of thought, demonstrating outstanding performance across a variety of tasks. However, this performance gain comes at the cost of a substantial increase in redundant reasoning during the generation process, leading to high computational overhead and exacerbating the issue of overthinking. Although numerous existing approaches aim to address the problem of overthinking, they often rely on external interventions. In this paper, we propose a novel framework, Self-Braking Tuning (SBT), which tackles overthinking from the perspective of allowing the model to regulate its own reasoning process, thus eliminating the reliance on external control mechanisms. We construct a set of overthinking identification metrics based on standard answers and design a systematic method to detect redundant reasoning. This method accurately identifies unnecessary steps within the reasoning trajectory and generates training signals for learning self-regulation behaviors. Building on this foundation, we develop a complete strategy for constructing data with adaptive reasoning lengths and introduce an innovative braking prompt mechanism that enables the model to naturally learn when to terminate reasoning at an appropriate point. Experiments across mathematical benchmarks (AIME, AMC, MATH500, GSM8K) demonstrate that our method reduces token consumption by up to 60% while maintaining comparable accuracy to unconstrained models.

Summary

AI-Generated Summary

PDF192May 23, 2025