ChatPaper.aiChatPaper

L'Avantage Séquentiel : Le Vote à Entropie Inverse Surpasse l'Auto-Cohérence Parallèle à Calcul Équivalent

The Sequential Edge: Inverse-Entropy Voting Beats Parallel Self-Consistency at Matched Compute

November 4, 2025
papers.authors: Aman Sharma, Paras Chopra
cs.AI

papers.abstract

Nous revisitons le dimensionnement au moment du test pour le raisonnement des modèles de langage et posons une question fondamentale : à budget de tokens et puissance de calcul équivalents, vaut-il mieux exécuter plusieurs chaînes de raisonnement indépendantes en parallèle, ou exécuter moins de chaînes qui s'améliorent de manière itérative par étapes séquentielles ? Grâce à une évaluation exhaustive sur 5 modèles open source de pointe et 3 benchmarks de raisonnement exigeants, nous constatons que le dimensionnement séquentiel, où les chaînes s'appuient explicitement sur les tentatives précédentes, surpasse systématiquement le paradigme dominant d'auto-cohérence parallèle dans 95,6 % des configurations, avec des gains de précision allant jusqu'à 46,7 %. De plus, nous introduisons le vote pondéré par l'entropie inverse, une nouvelle méthode sans entraînement pour améliorer davantage la précision du dimensionnement séquentiel. En pondérant les réponses proportionnellement à l'entropie inverse de leurs chaînes de raisonnement, nous augmentons notre taux de succès par rapport au vote majoritaire parallèle et l'établissons comme la stratégie de dimensionnement au moment du test optimale. Nos résultats remettent fondamentalement en cause l'orthodoxie du raisonnement parallèle qui a dominé le dimensionnement au moment du test depuis le décodage par auto-cohérence de Wang et al. (Wang et al., 2022), positionnant le raffinement séquentiel comme l'option robuste par défaut pour le raisonnement des LLM modernes et nécessitant un changement de paradigme dans notre approche de l'optimisation à l'inférence.
English
We revisit test-time scaling for language model reasoning and ask a fundamental question: at equal token budget and compute, is it better to run multiple independent chains in parallel, or to run fewer chains that iteratively refine through sequential steps? Through comprehensive evaluation across 5 state-of-the-art open source models and 3 challenging reasoning benchmarks, we find that sequential scaling where chains explicitly build upon previous attempts consistently outperforms the dominant parallel self-consistency paradigm in 95.6% of configurations with gains in accuracy upto 46.7%. Further, we introduce inverse-entropy weighted voting, a novel training-free method to further boost the accuracy of sequential scaling. By weighing answers in proportion to the inverse entropy of their reasoning chains, we increase our success rate over parallel majority and establish it as the optimal test-time scaling strategy. Our findings fundamentally challenge the parallel reasoning orthodoxy that has dominated test-time scaling since Wang et al.'s self-consistency decoding (Wang et al., 2022), positioning sequential refinement as the robust default for modern LLM reasoning and necessitating a paradigm shift in how we approach inference-time optimization.
PDF42December 1, 2025