ChatPaper.aiChatPaper

Il Vantaggio Sequenziale: il Voto a Entropia Inversa Supera l'Auto-Consistenza Parallela a Parità di Calcolo

The Sequential Edge: Inverse-Entropy Voting Beats Parallel Self-Consistency at Matched Compute

November 4, 2025
Autori: Aman Sharma, Paras Chopra
cs.AI

Abstract

Riconsideriamo lo scaling a tempo di test per il ragionamento dei modelli linguistici e ci poniamo una domanda fondamentale: a parità di budget di token e potenza di calcolo, è meglio eseguire più catene indipendenti in parallelo, o eseguire meno catene che si affinano iterativamente attraverso passaggi sequenziali? Attraverso una valutazione completa su 5 modelli open source all'avanguardia e 3 benchmark di ragionamento complessi, scopriamo che lo scaling sequenziale, in cui le catene costruiscono esplicitamente sui tentativi precedenti, supera costantemente il paradigma dominante dell'auto-consistenza parallela nel 95,6% delle configurazioni, con guadagni in accuratezza fino al 46,7%. Inoltre, introduciamo il voto ponderato per entropia inversa, un nuovo metodo senza addestramento per aumentare ulteriormente l'accuratezza dello scaling sequenziale. Ponderando le risposte in proporzione all'entropia inversa delle loro catene di ragionamento, aumentiamo il nostro tasso di successo rispetto al voto a maggioranza parallelo e lo stabiliamo come la strategia di scaling a tempo di test ottimale. Le nostre scoperte sfidano fondamentalmente l'ortodossia del ragionamento parallelo che ha dominato lo scaling a tempo di test sin dal decoding a auto-consistenza di Wang et al. (Wang et al., 2022), posizionando l'affinamento sequenziale come l'opzione robusta predefinita per il ragionamento dei moderni LLM e rendendo necessario un cambio di paradigma nel modo in cui affrontiamo l'ottimizzazione al momento dell'inferenza.
English
We revisit test-time scaling for language model reasoning and ask a fundamental question: at equal token budget and compute, is it better to run multiple independent chains in parallel, or to run fewer chains that iteratively refine through sequential steps? Through comprehensive evaluation across 5 state-of-the-art open source models and 3 challenging reasoning benchmarks, we find that sequential scaling where chains explicitly build upon previous attempts consistently outperforms the dominant parallel self-consistency paradigm in 95.6% of configurations with gains in accuracy upto 46.7%. Further, we introduce inverse-entropy weighted voting, a novel training-free method to further boost the accuracy of sequential scaling. By weighing answers in proportion to the inverse entropy of their reasoning chains, we increase our success rate over parallel majority and establish it as the optimal test-time scaling strategy. Our findings fundamentally challenge the parallel reasoning orthodoxy that has dominated test-time scaling since Wang et al.'s self-consistency decoding (Wang et al., 2022), positioning sequential refinement as the robust default for modern LLM reasoning and necessitating a paradigm shift in how we approach inference-time optimization.
PDF42December 1, 2025