Quand Résoudre, Quand Vérifier : Résolution de Problèmes Optimisée en Calcul et Vérification Générative pour le Raisonnement des LLM
When To Solve, When To Verify: Compute-Optimal Problem Solving and Generative Verification for LLM Reasoning
April 1, 2025
Auteurs: Nishad Singhi, Hritik Bansal, Arian Hosseini, Aditya Grover, Kai-Wei Chang, Marcus Rohrbach, Anna Rohrbach
cs.AI
Résumé
L'augmentation du calcul au moment du test est devenue une stratégie clé pour améliorer les capacités de raisonnement des grands modèles de langage (LLMs), en particulier dans des tâches comme la résolution de problèmes mathématiques. Une approche traditionnelle, la cohérence interne (Self-Consistency, SC), génère plusieurs solutions à un problème et sélectionne la réponse la plus fréquente via un vote majoritaire. Une autre méthode courante consiste à évaluer chaque solution à l'aide d'un modèle de récompense (vérificateur) et à choisir la meilleure. Les avancées récentes dans les modèles de récompense génératifs (Generative Reward Models, GenRM) reformulent la vérification comme une tâche de prédiction du prochain jeton, permettant une mise à l'échelle au moment de l'inférence selon un nouvel axe. Plus précisément, GenRM génère plusieurs chaînes de raisonnement de vérification pour évaluer chaque solution. Sous un budget d'inférence limité, cela introduit un compromis fondamental : faut-il dépenser le budget pour augmenter le nombre de solutions via SC ou générer moins de solutions et allouer des ressources à la vérification via GenRM ? Pour répondre à cette question, nous évaluons GenRM par rapport à SC sous un budget d'inférence fixe. Fait intéressant, nous constatons que SC est plus efficace en termes de calcul que GenRM pour la plupart des budgets d'inférence pratiques, et ce, sur divers modèles et jeux de données. Par exemple, GenRM atteint d'abord les performances de SC après avoir consommé jusqu'à 8 fois plus de calcul d'inférence et nécessite beaucoup plus de ressources pour le surpasser. De plus, nous dérivons des lois de mise à l'échelle pour le paradigme GenRM, révélant qu'une inférence optimale en termes de calcul favorise une augmentation plus agressive de la génération de solutions que du nombre de vérifications. Notre travail fournit des conseils pratiques pour optimiser la mise à l'échelle au moment du test en équilibrant génération de solutions et vérification. Le code est disponible à l'adresse https://github.com/nishadsinghi/sc-genrm-scaling.
English
Scaling test-time compute has emerged as a key strategy for enhancing the
reasoning capabilities of large language models (LLMs), particularly in tasks
like mathematical problem-solving. A traditional approach, Self-Consistency
(SC), generates multiple solutions to a problem and selects the most common
answer via majority voting. Another common method involves scoring each
solution with a reward model (verifier) and choosing the best one. Recent
advancements in Generative Reward Models (GenRM) reframe verification as a
next-token prediction task, enabling inference-time scaling along a new axis.
Specifically, GenRM generates multiple verification chains-of-thought to score
each solution. Under a limited inference budget, this introduces a fundamental
trade-off: should you spend the budget on scaling solutions via SC or generate
fewer solutions and allocate compute to verification via GenRM? To address
this, we evaluate GenRM against SC under a fixed inference budget.
Interestingly, we find that SC is more compute-efficient than GenRM for most
practical inference budgets across diverse models and datasets. For instance,
GenRM first matches SC after consuming up to 8x the inference compute and
requires significantly more compute to outperform it. Furthermore, we derive
inference scaling laws for the GenRM paradigm, revealing that compute-optimal
inference favors scaling solution generation more aggressively than scaling the
number of verifications. Our work provides practical guidance on optimizing
test-time scaling by balancing solution generation and verification. The code
is available at https://github.com/nishadsinghi/sc-genrm-scaling.Summary
AI-Generated Summary