ChatPaper.aiChatPaper

De meerderheid heeft niet altijd gelijk: RL-training voor oplossingsaggregatie

The Majority is not always right: RL training for solution aggregation

September 8, 2025
Auteurs: Wenting Zhao, Pranjal Aggarwal, Swarnadeep Saha, Asli Celikyilmaz, Jason Weston, Ilia Kulikov
cs.AI

Samenvatting

Het opschalen van rekenkracht tijdens testen, door het genereren van meerdere onafhankelijke oplossingen en het selecteren of aggregeren daarvan, is een centrale paradigma geworden voor het verbeteren van grote taalmodellen (LLMs) op uitdagende redeneertaken. Hoewel de meeste eerdere werken vertrouwen op eenvoudige meerderheidsstemming of rangschikking door beloningsmodellen om oplossingen te aggregeren, kunnen deze benaderingen slechts beperkte voordelen opleveren. In dit werk stellen we voor om aggregatie te leren als een expliciete redeneervaardigheid: gegeven een set kandidaatoplossingen, trainen we een aggregatiemodel om een definitief, correct antwoord te beoordelen, af te stemmen en samen te stellen met behulp van reinforcement learning op basis van verifieerbare beloningen. Een belangrijk ingrediënt is het zorgvuldig balanceren van eenvoudige en moeilijke trainingsvoorbeelden, waardoor het model zowel kan leren om minderheidsmaar-correcte antwoorden te herstellen als eenvoudige meerderheidscorrecte antwoorden. Empirisch vinden we dat onze methode, AggLM, zowel sterke op regels gebaseerde als beloningsmodel-baselines overtreft, over meerdere benchmarks. Bovendien generaliseert het effectief naar oplossingen van verschillende modellen, inclusief sterkere dan die in de trainingsdata zijn opgenomen, terwijl het aanzienlijk minder tokens vereist dan meerderheidsstemming met een groter aantal oplossingen.
English
Scaling up test-time compute, by generating multiple independent solutions and selecting or aggregating among them, has become a central paradigm for improving large language models (LLMs) on challenging reasoning tasks. While most prior work relies on simple majority voting or reward model ranking to aggregate solutions, these approaches may only yield limited benefits. In this work, we propose to learn aggregation as an explicit reasoning skill: given a set of candidate solutions, we train an aggregator model to review, reconcile, and synthesize a final, correct answer using reinforcement learning from verifiable rewards. A key ingredient is careful balancing of easy and hard training examples, allowing the model to learn both to recover minority-but-correct answers as well as easy majority-correct answers. Empirically, we find our method, AggLM, outperforms both strong rule-based and reward-model baselines, across multiple benchmarks. Furthermore, it generalizes effectively to solutions from differing models, including stronger ones than contained in the training data, all while requiring substantially fewer tokens than majority voting with larger numbers of solutions.
PDF162September 11, 2025