ChatPaper.aiChatPaper

Verso una Visione Unificata del Post-Addestramento dei Modelli Linguistici su Grande Scala

Towards a Unified View of Large Language Model Post-Training

September 4, 2025
Autori: Xingtai Lv, Yuxin Zuo, Youbang Sun, Hongyi Liu, Yuntian Wei, Zhekai Chen, Lixuan He, Xuekai Zhu, Kaiyan Zhang, Bingning Wang, Ning Ding, Bowen Zhou
cs.AI

Abstract

Esistono due principali fonti di dati di addestramento per il post-training dei moderni modelli linguistici: dati online (rollout generati dal modello) e dati offline (dimostrazioni umane o di altri modelli). Questi due tipi di dati sono tipicamente utilizzati da approcci come il Reinforcement Learning (RL) e il Supervised Fine-Tuning (SFT), rispettivamente. In questo articolo, dimostriamo che questi approcci non sono in contraddizione, ma sono istanze di un singolo processo di ottimizzazione. Deriviamo un Unified Policy Gradient Estimator e presentiamo i calcoli di un ampio spettro di approcci di post-training come il gradiente di un obiettivo comune sotto diverse ipotesi di distribuzione dei dati e vari compromessi bias-varianza. Lo stimatore del gradiente è costruito con quattro parti intercambiabili: maschera di stabilizzazione, denominatore della politica di riferimento, stima del vantaggio e gradiente della verosimiglianza. Motivati dai nostri risultati teorici, proponiamo l'Hybrid Post-Training (HPT), un algoritmo che seleziona dinamicamente diversi segnali di addestramento. L'HPT è progettato per ottenere sia un'efficace sfruttamento delle dimostrazioni che un'esplorazione stabile senza sacrificare i modelli di ragionamento appresi. Forniamo ampi esperimenti e studi di ablazione per verificare l'efficacia del nostro quadro teorico unificato e dell'HPT. Attraverso sei benchmark di ragionamento matematico e due suite out-of-distribution, l'HPT supera costantemente forti baseline su modelli di varie scale e famiglie.
English
Two major sources of training data exist for post-training modern language models: online (model-generated rollouts) data, and offline (human or other-model demonstrations) data. These two types of data are typically used by approaches like Reinforcement Learning (RL) and Supervised Fine-Tuning (SFT), respectively. In this paper, we show that these approaches are not in contradiction, but are instances of a single optimization process. We derive a Unified Policy Gradient Estimator, and present the calculations of a wide spectrum of post-training approaches as the gradient of a common objective under different data distribution assumptions and various bias-variance tradeoffs. The gradient estimator is constructed with four interchangeable parts: stabilization mask, reference policy denominator, advantage estimate, and likelihood gradient. Motivated by our theoretical findings, we propose Hybrid Post-Training (HPT), an algorithm that dynamically selects different training signals. HPT is designed to yield both effective exploitation of demonstration and stable exploration without sacrificing learned reasoning patterns. We provide extensive experiments and ablation studies to verify the effectiveness of our unified theoretical framework and HPT. Across six mathematical reasoning benchmarks and two out-of-distribution suites, HPT consistently surpasses strong baselines across models of varying scales and families.
PDF737September 5, 2025