Wann lösen, wann verifizieren: Rechenoptimale Problemlösung und generative Verifikation für das Schlussfolgern mit großen Sprachmodellen
When To Solve, When To Verify: Compute-Optimal Problem Solving and Generative Verification for LLM Reasoning
April 1, 2025
Autoren: Nishad Singhi, Hritik Bansal, Arian Hosseini, Aditya Grover, Kai-Wei Chang, Marcus Rohrbach, Anna Rohrbach
cs.AI
Zusammenfassung
Die Skalierung der Rechenleistung zur Testzeit hat sich als zentrale Strategie zur Verbesserung der Fähigkeiten großer Sprachmodelle (LLMs) im Bereich des logischen Denkens erwiesen, insbesondere bei Aufgaben wie der Lösung mathematischer Probleme. Ein traditioneller Ansatz, Self-Consistency (SC), generiert mehrere Lösungen für ein Problem und wählt die häufigste Antwort durch Mehrheitsentscheidung aus. Eine andere gängige Methode besteht darin, jede Lösung mit einem Belohnungsmodell (Verifizierer) zu bewerten und die beste auszuwählen. Jüngste Fortschritte bei Generativen Belohnungsmodellen (GenRM) formulieren die Verifizierung als eine Aufgabe zur Vorhersage des nächsten Tokens neu, wodurch die Skalierung zur Inferenzzeit entlang einer neuen Achse ermöglicht wird. GenRM generiert speziell mehrere Verifizierungsketten von Gedanken, um jede Lösung zu bewerten. Bei einem begrenzten Inferenzbudget ergibt sich hier ein grundlegendes Dilemma: Sollte das Budget für die Skalierung von Lösungen über SC verwendet werden oder sollten weniger Lösungen generiert und die Rechenleistung für die Verifizierung über GenRM zugewiesen werden? Um dies zu untersuchen, bewerten wir GenRM im Vergleich zu SC unter einem festen Inferenzbudget. Interessanterweise stellen wir fest, dass SC für die meisten praktischen Inferenzbudgets über verschiedene Modelle und Datensätze hinweg recheneffizienter ist als GenRM. Beispielsweise erreicht GenRM erst nach dem Verbrauch von bis zu 8x der Inferenz-Rechenleistung das Niveau von SC und benötigt deutlich mehr Rechenleistung, um es zu übertreffen. Darüber hinaus leiten wir Inferenz-Skalierungsgesetze für das GenRM-Paradigma ab, die zeigen, dass eine rechenoptimale Inferenz die Skalierung der Lösungsgenerierung stärker begünstigt als die Skalierung der Anzahl der Verifizierungen. Unsere Arbeit bietet praktische Anleitungen zur Optimierung der Skalierung zur Testzeit durch die Balance zwischen Lösungsgenerierung und Verifizierung. Der Code ist verfügbar unter https://github.com/nishadsinghi/sc-genrm-scaling.
English
Scaling test-time compute has emerged as a key strategy for enhancing the
reasoning capabilities of large language models (LLMs), particularly in tasks
like mathematical problem-solving. A traditional approach, Self-Consistency
(SC), generates multiple solutions to a problem and selects the most common
answer via majority voting. Another common method involves scoring each
solution with a reward model (verifier) and choosing the best one. Recent
advancements in Generative Reward Models (GenRM) reframe verification as a
next-token prediction task, enabling inference-time scaling along a new axis.
Specifically, GenRM generates multiple verification chains-of-thought to score
each solution. Under a limited inference budget, this introduces a fundamental
trade-off: should you spend the budget on scaling solutions via SC or generate
fewer solutions and allocate compute to verification via GenRM? To address
this, we evaluate GenRM against SC under a fixed inference budget.
Interestingly, we find that SC is more compute-efficient than GenRM for most
practical inference budgets across diverse models and datasets. For instance,
GenRM first matches SC after consuming up to 8x the inference compute and
requires significantly more compute to outperform it. Furthermore, we derive
inference scaling laws for the GenRM paradigm, revealing that compute-optimal
inference favors scaling solution generation more aggressively than scaling the
number of verifications. Our work provides practical guidance on optimizing
test-time scaling by balancing solution generation and verification. The code
is available at https://github.com/nishadsinghi/sc-genrm-scaling.Summary
AI-Generated Summary