Wanneer Oplossen, Wanneer Verifiëren: Compute-Optimaal Probleem Oplossen en Generatieve Verificatie voor LLM Redenering
When To Solve, When To Verify: Compute-Optimal Problem Solving and Generative Verification for LLM Reasoning
April 1, 2025
Auteurs: Nishad Singhi, Hritik Bansal, Arian Hosseini, Aditya Grover, Kai-Wei Chang, Marcus Rohrbach, Anna Rohrbach
cs.AI
Samenvatting
Het opschalen van testtijd-rekenkracht is naar voren gekomen als een belangrijke strategie om de redeneervaardigheden van grote taalmodellen (LLMs) te verbeteren, met name bij taken zoals wiskundig probleemoplossen. Een traditionele aanpak, Self-Consistency (SC), genereert meerdere oplossingen voor een probleem en selecteert het meest voorkomende antwoord via meerderheidsstemming. Een andere veelgebruikte methode omvat het scoren van elke oplossing met een beloningsmodel (verifier) en het kiezen van de beste. Recente vooruitgang in Generative Reward Models (GenRM) herformuleert verificatie als een volgende-token-voorspellingstaak, waardoor opschaling tijdens inferentie langs een nieuwe as mogelijk wordt. Specifiek genereert GenRM meerdere verificatie-ketens-van-gedachten om elke oplossing te scoren. Onder een beperkt inferentiebudget introduceert dit een fundamentele afweging: moet het budget worden besteed aan het opschalen van oplossingen via SC, of moeten er minder oplossingen worden gegenereerd en wordt de rekenkracht toegewezen aan verificatie via GenRM? Om dit aan te pakken, evalueren we GenRM tegenover SC onder een vast inferentiebudget. Interessant genoeg vinden we dat SC rekenkundig efficiënter is dan GenRM voor de meeste praktische inferentiebudgetten over diverse modellen en datasets. GenRM haalt bijvoorbeeld SC pas in na het verbruiken van tot 8x de inferentie-rekenkracht en vereist aanzienlijk meer rekenkracht om het te overtreffen. Bovendien leiden we inferentie-opschalingswetten af voor het GenRM-paradigma, waaruit blijkt dat rekenkundig optimale inferentie het agressiever opschalen van oplossingsgeneratie bevordert dan het opschalen van het aantal verificaties. Ons werk biedt praktische richtlijnen voor het optimaliseren van testtijd-opschaling door het balanceren van oplossingsgeneratie en verificatie. De code is beschikbaar op https://github.com/nishadsinghi/sc-genrm-scaling.
English
Scaling test-time compute has emerged as a key strategy for enhancing the
reasoning capabilities of large language models (LLMs), particularly in tasks
like mathematical problem-solving. A traditional approach, Self-Consistency
(SC), generates multiple solutions to a problem and selects the most common
answer via majority voting. Another common method involves scoring each
solution with a reward model (verifier) and choosing the best one. Recent
advancements in Generative Reward Models (GenRM) reframe verification as a
next-token prediction task, enabling inference-time scaling along a new axis.
Specifically, GenRM generates multiple verification chains-of-thought to score
each solution. Under a limited inference budget, this introduces a fundamental
trade-off: should you spend the budget on scaling solutions via SC or generate
fewer solutions and allocate compute to verification via GenRM? To address
this, we evaluate GenRM against SC under a fixed inference budget.
Interestingly, we find that SC is more compute-efficient than GenRM for most
practical inference budgets across diverse models and datasets. For instance,
GenRM first matches SC after consuming up to 8x the inference compute and
requires significantly more compute to outperform it. Furthermore, we derive
inference scaling laws for the GenRM paradigm, revealing that compute-optimal
inference favors scaling solution generation more aggressively than scaling the
number of verifications. Our work provides practical guidance on optimizing
test-time scaling by balancing solution generation and verification. The code
is available at https://github.com/nishadsinghi/sc-genrm-scaling.Summary
AI-Generated Summary