ChatPaper.aiChatPaper

Auf dem Weg zu einer einheitlichen Sichtweise auf das Post-Training großer Sprachmodelle

Towards a Unified View of Large Language Model Post-Training

September 4, 2025
papers.authors: Xingtai Lv, Yuxin Zuo, Youbang Sun, Hongyi Liu, Yuntian Wei, Zhekai Chen, Lixuan He, Xuekai Zhu, Kaiyan Zhang, Bingning Wang, Ning Ding, Bowen Zhou
cs.AI

papers.abstract

Es gibt zwei Hauptquellen für Trainingsdaten zur Nachschulung moderner Sprachmodelle: Online-Daten (modellgenerierte Rollouts) und Offline-Daten (Demonstrationen von Menschen oder anderen Modellen). Diese beiden Datentypen werden typischerweise von Ansätzen wie Reinforcement Learning (RL) und Supervised Fine-Tuning (SFT) verwendet. In diesem Artikel zeigen wir, dass diese Ansätze nicht im Widerspruch zueinander stehen, sondern Instanzen eines einzigen Optimierungsprozesses sind. Wir leiten einen Vereinheitlichten Policy-Gradient-Schätzer ab und stellen die Berechnungen eines breiten Spektrums von Nachschulungsansätzen als Gradient eines gemeinsamen Ziels unter verschiedenen Annahmen zur Datenverteilung und verschiedenen Bias-Varianz-Kompromissen dar. Der Gradientenschätzer besteht aus vier austauschbaren Komponenten: Stabilisierungsmaske, Referenzrichtlinien-Nenner, Vorteilsschätzung und Likelihood-Gradient. Motiviert durch unsere theoretischen Erkenntnisse schlagen wir Hybrid Post-Training (HPT) vor, einen Algorithmus, der dynamisch verschiedene Trainingssignale auswählt. HPT ist darauf ausgelegt, sowohl eine effektive Nutzung von Demonstrationen als auch eine stabile Exploration zu ermöglichen, ohne dabei gelernte Denkmuster zu opfern. Wir führen umfangreiche Experimente und Ablationsstudien durch, um die Wirksamkeit unseres vereinheitlichten theoretischen Rahmens und von HPT zu überprüfen. Über sechs mathematische Denkbenchmarks und zwei Out-of-Distribution-Testsuiten hinweg übertrifft HPT durchweg starke Baselines über Modelle verschiedener Größen und Familien hinweg.
English
Two major sources of training data exist for post-training modern language models: online (model-generated rollouts) data, and offline (human or other-model demonstrations) data. These two types of data are typically used by approaches like Reinforcement Learning (RL) and Supervised Fine-Tuning (SFT), respectively. In this paper, we show that these approaches are not in contradiction, but are instances of a single optimization process. We derive a Unified Policy Gradient Estimator, and present the calculations of a wide spectrum of post-training approaches as the gradient of a common objective under different data distribution assumptions and various bias-variance tradeoffs. The gradient estimator is constructed with four interchangeable parts: stabilization mask, reference policy denominator, advantage estimate, and likelihood gradient. Motivated by our theoretical findings, we propose Hybrid Post-Training (HPT), an algorithm that dynamically selects different training signals. HPT is designed to yield both effective exploitation of demonstration and stable exploration without sacrificing learned reasoning patterns. We provide extensive experiments and ablation studies to verify the effectiveness of our unified theoretical framework and HPT. Across six mathematical reasoning benchmarks and two out-of-distribution suites, HPT consistently surpasses strong baselines across models of varying scales and families.
PDF406September 5, 2025