ChatPaper.aiChatPaper

LSPO: Динамическая выборка с учетом длины для оптимизации стратегии в рассуждениях на основе крупных языковых моделей

LSPO: Length-aware Dynamic Sampling for Policy Optimization in LLM Reasoning

October 1, 2025
Авторы: Weizhe Chen, Sven Koenig, Bistra Dilkina
cs.AI

Аннотация

С момента выпуска Deepseek-R1 обучение с подкреплением с верифицируемыми вознаграждениями (RLVR) стало ключевым подходом для обучения больших языковых моделей (LLM) на задачах логического рассуждения. В последних работах основное внимание уделялось модификации функций потерь для повышения эффективности и результативности RLVR. В данной статье, основываясь на исследованиях феномена "переобдумывания" в LLM, мы предлагаем Length-aware Sampling for Policy Optimization (LSPO) — новый мета-алгоритм RLVR, который динамически выбирает обучающие данные на каждом шаге на основе средней длины ответа. Мы оцениваем LSPO на нескольких базовых моделях и наборах данных, демонстрируя, что он последовательно повышает эффективность обучения. Кроме того, мы проводим детальное исследование с исключением переменных, чтобы изучить альтернативные способы включения сигналов длины в динамическую выборку, предлагая дополнительные инсайты и выделяя перспективные направления для будущих исследований.
English
Since the release of Deepseek-R1, reinforcement learning with verifiable rewards (RLVR) has become a central approach for training large language models (LLMs) on reasoning tasks. Recent work has largely focused on modifying loss functions to make RLVR more efficient and effective. In this paper, motivated by studies of overthinking in LLMs, we propose Length-aware Sampling for Policy Optimization (LSPO), a novel meta-RLVR algorithm that dynamically selects training data at each step based on the average response length. We evaluate LSPO across multiple base models and datasets, demonstrating that it consistently improves learning effectiveness. In addition, we conduct a detailed ablation study to examine alternative ways of incorporating length signals into dynamic sampling, offering further insights and highlighting promising directions for future research.
PDF32October 6, 2025