ChatPaper.aiChatPaper

Fraktionale Schlussfolgerung durch latente Steuerungsvektoren verbessert die Inferenzzeitberechnung

Fractional Reasoning via Latent Steering Vectors Improves Inference Time Compute

June 18, 2025
Autoren: Sheng Liu, Tianlang Chen, Pan Lu, Haotian Ye, Yizheng Chen, Lei Xing, James Zou
cs.AI

Zusammenfassung

Test-Time Compute hat sich als leistungsstarkes Paradigma zur Verbesserung der Leistung großer Sprachmodelle (LLMs) etabliert, bei dem die Generierung mehrerer Ausgaben oder die Verfeinerung einzelner Ketten die Antwortgenauigkeit erheblich steigern kann. Bestehende Methoden wie Best-of-N, Mehrheitsentscheidung und Selbstreflexion wenden jedoch in der Regel einheitliches Denken über alle Eingaben hinweg an, ohne zu berücksichtigen, dass unterschiedliche Probleme unterschiedliche Tiefen des Denkens erfordern können. In dieser Arbeit schlagen wir Fractional Reasoning vor, ein trainingsfreies und modellunabhängiges Framework, das eine kontinuierliche Steuerung der Denkintensität zur Inferenzzeit ermöglicht und die Grenzen fester Instruktionsaufforderungen überwindet. Unser Verfahren extrahiert den latenten Steuerungsvektor, der mit tieferem Denken verbunden ist, und wendet ihn mit einem einstellbaren Skalierungsfaktor erneut an, sodass das Modell seinen Denkprozess an die Komplexität jeder Eingabe anpassen kann. Dies unterstützt zwei Schlüsselmodi der Test-Time-Skalierung: (1) die Verbesserung der Ausgabequalität in breitenbasierten Strategien (z. B. Best-of-N, Mehrheitsentscheidung) und (2) die Erhöhung der Korrektheit einzelner Denkketten in tiefenbasierten Strategien (z. B. Selbstreflexion). Experimente auf GSM8K, MATH500 und GPQA zeigen, dass Fractional Reasoning die Leistung über verschiedene Denkaufgaben und Modelle hinweg konsequent verbessert.
English
Test-time compute has emerged as a powerful paradigm for improving the performance of large language models (LLMs), where generating multiple outputs or refining individual chains can significantly boost answer accuracy. However, existing methods like Best-of-N, majority voting, and self-reflection typically apply reasoning in a uniform way across inputs, overlooking the fact that different problems may require different levels of reasoning depth. In this work, we propose Fractional Reasoning, a training-free and model-agnostic framework that enables continuous control over reasoning intensity at inference time, going beyond the limitations of fixed instructional prompts. Our method operates by extracting the latent steering vector associated with deeper reasoning and reapplying it with a tunable scaling factor, allowing the model to tailor its reasoning process to the complexity of each input. This supports two key modes of test-time scaling: (1) improving output quality in breadth-based strategies (e.g., Best-of-N, majority voting), and (2) enhancing the correctness of individual reasoning chains in depth-based strategies (e.g., self-reflection). Experiments on GSM8K, MATH500, and GPQA demonstrate that Fractional Reasoning consistently improves performance across diverse reasoning tasks and models.
PDF12June 30, 2025