Het Sequentiële Voordeel: Inverse-Entropie Stemmen Verslaat Parallelle Zelfconsistentie bij Gelijkwaardige Rekenkracht
The Sequential Edge: Inverse-Entropy Voting Beats Parallel Self-Consistency at Matched Compute
November 4, 2025
Auteurs: Aman Sharma, Paras Chopra
cs.AI
Samenvatting
Wij herzien test-time scaling voor redeneervaardigheden van taalmodelen en stellen een fundamentele vraag: bij een gelijk budget aan tokens en rekenkracht, is het dan beter om meerdere onafhankelijke ketens parallel uit te voeren, of om minder ketens uit te voeren die iteratief verbeteren via sequentiële stappen? Door middel van een uitgebreide evaluatie over 5 state-of-the-art open-source modellen en 3 uitdagende redeneerbenchmarks, constateren wij dat sequentiële scaling, waarbij ketens expliciet voortbouwen op eerdere pogingen, consistent beter presteert dan het dominante parallelle zelfconsistentie-paradigma in 95,6% van de configuraties, met nauwkeurigheidswinst tot 46,7%. Verder introduceren wij inverse-entropy gewogen stemming, een nieuwe trainingsvrije methode om de nauwkeurigheid van sequentiële scaling verder te verbeteren. Door antwoorden te wegen in verhouding tot de inverse entropie van hun redeneerketens, verhogen wij ons slagingspercentage ten opzichte van parallelle meerderheidsstemming en vestigen wij deze methode als de optimale test-time scaling strategie. Onze bevindingen tarten fundamenteel de orthodoxie van parallel redeneren die de test-time scaling domineert sinds de zelfconsistentie-decodering van Wang et al. (Wang et al., 2022), en positioneren sequentiële verfijning als de robuuste standaard voor modern LLM-redeneren. Dit vereist een paradigmaverschuiving in hoe wij optimalisatie tijdens de inferentie benaderen.
English
We revisit test-time scaling for language model reasoning and ask a
fundamental question: at equal token budget and compute, is it better to run
multiple independent chains in parallel, or to run fewer chains that
iteratively refine through sequential steps? Through comprehensive evaluation
across 5 state-of-the-art open source models and 3 challenging reasoning
benchmarks, we find that sequential scaling where chains explicitly build upon
previous attempts consistently outperforms the dominant parallel
self-consistency paradigm in 95.6% of configurations with gains in accuracy
upto 46.7%. Further, we introduce inverse-entropy weighted voting, a novel
training-free method to further boost the accuracy of sequential scaling. By
weighing answers in proportion to the inverse entropy of their reasoning
chains, we increase our success rate over parallel majority and establish it as
the optimal test-time scaling strategy. Our findings fundamentally challenge
the parallel reasoning orthodoxy that has dominated test-time scaling since
Wang et al.'s self-consistency decoding (Wang et al., 2022), positioning
sequential refinement as the robust default for modern LLM reasoning and
necessitating a paradigm shift in how we approach inference-time optimization.