A Vantagem Sequencial: Voto de Entropia Inversa Supera a Autoconsistência Paralela com Cálculo Equiparado
The Sequential Edge: Inverse-Entropy Voting Beats Parallel Self-Consistency at Matched Compute
November 4, 2025
Autores: Aman Sharma, Paras Chopra
cs.AI
Resumo
Revisitamos o dimensionamento durante o teste para o raciocínio de modelos de linguagem e colocamos uma questão fundamental: com orçamento igual de tokens e computação, é melhor executar múltiplas cadeias independentes em paralelo ou executar menos cadeias que refinam iterativamente através de etapas sequenciais? Através de uma avaliação abrangente em 5 modelos de código aberto de última geração e 3 benchmarks de raciocínio desafiadores, descobrimos que o dimensionamento sequencial, onde as cadeias constroem explicitamente sobre tentativas anteriores, supera consistentemente o paradigma dominante de autoconsistência paralela em 95,6% das configurações, com ganhos de precisão de até 46,7%.
Além disso, introduzimos a votação ponderada por entropia inversa, um novo método livre de treinamento para impulsionar ainda mais a precisão do dimensionamento sequencial. Ao ponderar as respostas em proporção à entropia inversa de suas cadeias de raciocínio, aumentamos nossa taxa de sucesso em relação à maioria paralela e a estabelecemos como a estratégia ótima de dimensionamento durante o teste. Nossas descobertas desafiam fundamentalmente a ortodoxia do raciocínio paralelo que dominou o dimensionamento durante o teste desde a decodificação por autoconsistência de Wang et al. (2022), posicionando o refinamento sequencial como o padrão robusto para o raciocínio de LLMs modernos e exigindo uma mudança de paradigma em como abordamos a otimização durante a inferência.
English
We revisit test-time scaling for language model reasoning and ask a
fundamental question: at equal token budget and compute, is it better to run
multiple independent chains in parallel, or to run fewer chains that
iteratively refine through sequential steps? Through comprehensive evaluation
across 5 state-of-the-art open source models and 3 challenging reasoning
benchmarks, we find that sequential scaling where chains explicitly build upon
previous attempts consistently outperforms the dominant parallel
self-consistency paradigm in 95.6% of configurations with gains in accuracy
upto 46.7%. Further, we introduce inverse-entropy weighted voting, a novel
training-free method to further boost the accuracy of sequential scaling. By
weighing answers in proportion to the inverse entropy of their reasoning
chains, we increase our success rate over parallel majority and establish it as
the optimal test-time scaling strategy. Our findings fundamentally challenge
the parallel reasoning orthodoxy that has dominated test-time scaling since
Wang et al.'s self-consistency decoding (Wang et al., 2022), positioning
sequential refinement as the robust default for modern LLM reasoning and
necessitating a paradigm shift in how we approach inference-time optimization.