ChatPaper.aiChatPaper

LSPO: Lengtebewuste dynamische steekproefname voor beleidsoptimalisatie in LLM-redenering

LSPO: Length-aware Dynamic Sampling for Policy Optimization in LLM Reasoning

October 1, 2025
Auteurs: Weizhe Chen, Sven Koenig, Bistra Dilkina
cs.AI

Samenvatting

Sinds de release van Deepseek-R1 is reinforcement learning met verifieerbare beloningen (RLVR) een centrale benadering geworden voor het trainen van grote taalmodelen (LLMs) op redeneertaken. Recent onderzoek heeft zich vooral gericht op het aanpassen van verliesfuncties om RLVR efficiënter en effectiever te maken. In dit artikel, geïnspireerd door studies naar overdenken in LLMs, stellen we Length-aware Sampling for Policy Optimization (LSPO) voor, een nieuw meta-RLVR-algoritme dat dynamisch trainingsgegevens selecteert bij elke stap op basis van de gemiddelde responslengte. We evalueren LSPO over meerdere basismodellen en datasets, waarbij we aantonen dat het consistent de leerprestaties verbetert. Daarnaast voeren we een gedetailleerde ablatiestudie uit om alternatieve manieren te onderzoeken om lengtesignalen in dynamische sampling te integreren, wat verdere inzichten biedt en veelbelovende richtingen voor toekomstig onderzoek benadrukt.
English
Since the release of Deepseek-R1, reinforcement learning with verifiable rewards (RLVR) has become a central approach for training large language models (LLMs) on reasoning tasks. Recent work has largely focused on modifying loss functions to make RLVR more efficient and effective. In this paper, motivated by studies of overthinking in LLMs, we propose Length-aware Sampling for Policy Optimization (LSPO), a novel meta-RLVR algorithm that dynamically selects training data at each step based on the average response length. We evaluate LSPO across multiple base models and datasets, demonstrating that it consistently improves learning effectiveness. In addition, we conduct a detailed ablation study to examine alternative ways of incorporating length signals into dynamic sampling, offering further insights and highlighting promising directions for future research.
PDF32October 6, 2025