LongWriter-Zero: Ultra-lange tekstgeneratie beheersen via reinforcement learning
LongWriter-Zero: Mastering Ultra-Long Text Generation via Reinforcement Learning
June 23, 2025
Auteurs: Yuhao Wu, Yushi Bai, Zhiqiang Hu, Roy Ka-Wei Lee, Juanzi Li
cs.AI
Samenvatting
Ultralange tekstgeneratie door grote taalmodellen (LLMs) is een veelgevraagd scenario, maar blijft een aanzienlijke uitdaging vanwege hun maximale generatielengtelimiet en de algehele kwaliteitsafname naarmate de sequentielengte toeneemt. Eerdere benaderingen, zoals LongWriter, vertrouwen doorgaans op 'teaching', wat supervised fine-tuning (SFT) op synthetische lange-uitvoerdata inhoudt. Deze strategie is echter sterk afhankelijk van synthetische SFT-data, die moeilijk en kostbaar zijn om te construeren, vaak gebrek aan samenhang en consistentie vertonen, en de neiging hebben om te kunstmatig en structureel eentonig te zijn. In dit werk stellen we een op incentivatie gebaseerde benadering voor die, volledig vanaf nul en zonder gebruik te maken van geannoteerde of synthetische data, reinforcement learning (RL) benut om het ontstaan van ultralange, hoogwaardige tekstgeneratiecapaciteiten in LLMs te bevorderen. We voeren RL-training uit vanaf een basismodel, vergelijkbaar met R1-Zero, en begeleiden het om redeneringen te gebruiken die planning en verfijning tijdens het schrijfproces faciliteren. Om dit te ondersteunen, gebruiken we gespecialiseerde beloningsmodellen die het LLM sturen naar verbeterde lengtecontrole, schrijfkwaliteit en structurele opmaak. Experimentele evaluaties tonen aan dat ons LongWriter-Zero model, getraind vanaf Qwen2.5-32B, traditionele SFT-methoden consistent overtreft bij lange-teksttaken, met state-of-the-art resultaten op alle metrieken van WritingBench en Arena-Write, en zelfs 100B+ modellen zoals DeepSeek R1 en Qwen3-235B overtreft. We openbaren onze data en modelcheckpoints op https://huggingface.co/THU-KEG/LongWriter-Zero-32B.
English
Ultra-long generation by large language models (LLMs) is a widely demanded
scenario, yet it remains a significant challenge due to their maximum
generation length limit and overall quality degradation as sequence length
increases. Previous approaches, exemplified by LongWriter, typically rely on
''teaching'', which involves supervised fine-tuning (SFT) on synthetic
long-form outputs. However, this strategy heavily depends on synthetic SFT
data, which is difficult and costly to construct, often lacks coherence and
consistency, and tends to be overly artificial and structurally monotonous. In
this work, we propose an incentivization-based approach that, starting entirely
from scratch and without relying on any annotated or synthetic data, leverages
reinforcement learning (RL) to foster the emergence of ultra-long, high-quality
text generation capabilities in LLMs. We perform RL training starting from a
base model, similar to R1-Zero, guiding it to engage in reasoning that
facilitates planning and refinement during the writing process. To support
this, we employ specialized reward models that steer the LLM towards improved
length control, writing quality, and structural formatting. Experimental
evaluations show that our LongWriter-Zero model, trained from Qwen2.5-32B,
consistently outperforms traditional SFT methods on long-form writing tasks,
achieving state-of-the-art results across all metrics on WritingBench and
Arena-Write, and even surpassing 100B+ models such as DeepSeek R1 and
Qwen3-235B. We open-source our data and model checkpoints under
https://huggingface.co/THU-KEG/LongWriter-Zero-32B