ChatPaper.aiChatPaper

UloRL: Ein Ultra-Langer-Ausgabe-Ansatz für Reinforcement Learning zur Förderung der Argumentationsfähigkeiten großer Sprachmodelle

UloRL:An Ultra-Long Output Reinforcement Learning Approach for Advancing Large Language Models' Reasoning Abilities

July 26, 2025
papers.authors: Dong Du, Shulin Liu, Tao Yang, Shaohua Chen, Yang Li
cs.AI

papers.abstract

Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben das Potenzial von Verstärkungslernen mit verifizierbaren Belohnungen (RLVR) zur Verbesserung der Fähigkeiten zur logischen Schlussfolgerung durch erweiterte Ausgabesequenzen aufgezeigt. Traditionelle RL-Frameworks stoßen jedoch auf Ineffizienzen bei der Verarbeitung von ultra-langen Ausgaben aufgrund von langen Sequenzverteilungen und Entropiezusammenbrüchen während des Trainings. Um diese Herausforderungen zu bewältigen, schlagen wir einen Ansatz für Ultra-Lange Ausgabe-Verstärkungslernen (UloRL) vor, um die Fähigkeiten zur logischen Schlussfolgerung von großen Sprachmodellen zu verbessern. Insbesondere teilen wir die Decodierung von ultra-langen Ausgaben in kurze Segmente auf, wodurch effizientes Training ermöglicht wird, indem Verzögerungen durch lange Sequenzen gemindert werden. Zusätzlich führen wir eine dynamische Maskierung von gut beherrschten positiven Tokens (MPTs) ein, um Entropiezusammenbrüche zu verhindern. Experimentelle Ergebnisse zeigen die Wirksamkeit unseres Ansatzes. Beim Qwen3-30B-A3B-Modell erreichte RL mit Segment-Rollout eine 2,06-fache Steigerung der Trainingsgeschwindigkeit, während RL-Training mit 128k-Token-Ausgaben die Leistung des Modells bei AIME2025 von 70,9 % auf 85,1 % und bei BeyondAIME von 50,7 % auf 61,9 % verbesserte und sogar Qwen3-235B-A22B mit bemerkenswerten Gewinnen übertraf. Diese Ergebnisse unterstreichen das Potenzial unserer Methoden, die Fähigkeiten zur logischen Schlussfolgerung von LLMs mit der Generierung von ultra-langen Sequenzen voranzutreiben. Wir werden unseren Code und unser Modell für die weitere Nutzung durch die Community veröffentlichen.
English
Recent advances in large language models (LLMs) have highlighted the potential of reinforcement learning with verifiable rewards (RLVR) to enhance reasoning capabilities through extended output sequences. However, traditional RL frameworks face inefficiencies when handling ultra-long outputs due to long-tail sequence distributions and entropy collapse during training. To address these challenges, we propose an Ultra-Long Output Reinforcement Learning (UloRL) approach for advancing large language models' reasoning abilities. Specifically, we divide ultra long output decoding into short segments, enabling efficient training by mitigating delays caused by long-tail samples. Additionally, we introduce dynamic masking of well-Mastered Positive Tokens (MPTs) to prevent entropy collapse. Experimental results demonstrate the effectiveness of our approach. On the Qwen3-30B-A3B model, RL with segment rollout achieved 2.06x increase in training speed, while RL training with 128k-token outputs improves the model's performance on AIME2025 from 70.9\% to 85.1\% and on BeyondAIME from 50.7\% to 61.9\%, even surpassing Qwen3-235B-A22B with remarkable gains. These findings underscore the potential of our methods to advance the reasoning capabilities of LLMs with ultra-long sequence generation. We will release our code and model for further use by the community.
PDF102July 29, 2025