Der sequenzielle Vorteil: Inverse-Entropy-Voting übertrifft parallele Selbstkonsistenz bei gleichem Rechenaufwand
The Sequential Edge: Inverse-Entropy Voting Beats Parallel Self-Consistency at Matched Compute
November 4, 2025
papers.authors: Aman Sharma, Paras Chopra
cs.AI
papers.abstract
Wir untersuchen erneut das Test-Time-Scaling für das Sprachmodell-Rationalität und stellen eine grundlegende Frage: Ist es bei gleichem Token-Budget und Rechenaufwand besser, mehrere unabhängige Ketten parallel auszuführen oder weniger Ketten, die sich iterativ durch sequenzielle Schritte verbessern? Durch eine umfassende Evaluierung mit 5 modernsten Open-Source-Modellen und 3 anspruchsvollen Reasoning-Benchmarks stellen wir fest, dass sequenzielles Scaling, bei dem Ketten explizit auf vorherigen Versuchen aufbauen, in 95,6 % der Konfigurationen das dominante Paradigma des parallelen Self-Consistency übertrifft, mit Genauigkeitssteigerungen von bis zu 46,7 %. Darüber hinaus führen wir die inverse-Entropie-gewichtete Abstimmung ein, eine neuartige trainingsfreie Methode, um die Genauigkeit des sequenziellen Scalings weiter zu steigern. Indem wir Antworten proportional zur inversen Entropie ihrer Reasoning-Ketten gewichten, erhöhen wir unsere Erfolgsrate gegenüber der parallelen Mehrheitsentscheidung und etablieren sie als optimale Test-Time-Scaling-Strategie. Unsere Ergebnisse stellen die vorherrschende Orthodoxie des parallelen Reasonings grundlegend in Frage, die das Test-Time-Scaling seit Wang et al.'s Self-Consistency-Decoding (Wang et al., 2022) dominiert hat, und positionieren die sequenzielle Verfeinerung als robuste Standardlösung für modernes LLM-Reasoning, was einen Paradigmenwechsel in der Herangehensweise an Inferenzzeit-Optimierung erforderlich macht.
English
We revisit test-time scaling for language model reasoning and ask a
fundamental question: at equal token budget and compute, is it better to run
multiple independent chains in parallel, or to run fewer chains that
iteratively refine through sequential steps? Through comprehensive evaluation
across 5 state-of-the-art open source models and 3 challenging reasoning
benchmarks, we find that sequential scaling where chains explicitly build upon
previous attempts consistently outperforms the dominant parallel
self-consistency paradigm in 95.6% of configurations with gains in accuracy
upto 46.7%. Further, we introduce inverse-entropy weighted voting, a novel
training-free method to further boost the accuracy of sequential scaling. By
weighing answers in proportion to the inverse entropy of their reasoning
chains, we increase our success rate over parallel majority and establish it as
the optimal test-time scaling strategy. Our findings fundamentally challenge
the parallel reasoning orthodoxy that has dominated test-time scaling since
Wang et al.'s self-consistency decoding (Wang et al., 2022), positioning
sequential refinement as the robust default for modern LLM reasoning and
necessitating a paradigm shift in how we approach inference-time optimization.