ChatPaper.aiChatPaper

Em Direção a uma Visão Unificada do Pós-Treinamento de Modelos de Linguagem de Grande Escala

Towards a Unified View of Large Language Model Post-Training

September 4, 2025
Autores: Xingtai Lv, Yuxin Zuo, Youbang Sun, Hongyi Liu, Yuntian Wei, Zhekai Chen, Lixuan He, Xuekai Zhu, Kaiyan Zhang, Bingning Wang, Ning Ding, Bowen Zhou
cs.AI

Resumo

Existem duas principais fontes de dados de treinamento para o pós-treinamento de modelos de linguagem modernos: dados online (rollouts gerados pelo modelo) e dados offline (demonstrações humanas ou de outros modelos). Esses dois tipos de dados são tipicamente utilizados por abordagens como Aprendizado por Reforço (RL) e Ajuste Fino Supervisionado (SFT), respectivamente. Neste artigo, mostramos que essas abordagens não são contraditórias, mas sim instâncias de um único processo de otimização. Derivamos um Estimador Unificado de Gradiente de Política e apresentamos os cálculos de uma ampla gama de abordagens de pós-treinamento como o gradiente de um objetivo comum sob diferentes suposições de distribuição de dados e vários tradeoffs de viés-variância. O estimador de gradiente é construído com quatro partes intercambiáveis: máscara de estabilização, denominador de política de referência, estimativa de vantagem e gradiente de verossimilhança. Motivados por nossas descobertas teóricas, propomos o Pós-Treinamento Híbrido (HPT), um algoritmo que seleciona dinamicamente diferentes sinais de treinamento. O HPT foi projetado para proporcionar tanto a exploração eficaz de demonstrações quanto a exploração estável, sem sacrificar os padrões de raciocínio aprendidos. Fornecemos experimentos extensivos e estudos de ablação para verificar a eficácia de nossa estrutura teórica unificada e do HPT. Em seis benchmarks de raciocínio matemático e dois conjuntos de dados fora da distribuição, o HPT supera consistentemente baselines robustos em modelos de diversas escalas e famílias.
English
Two major sources of training data exist for post-training modern language models: online (model-generated rollouts) data, and offline (human or other-model demonstrations) data. These two types of data are typically used by approaches like Reinforcement Learning (RL) and Supervised Fine-Tuning (SFT), respectively. In this paper, we show that these approaches are not in contradiction, but are instances of a single optimization process. We derive a Unified Policy Gradient Estimator, and present the calculations of a wide spectrum of post-training approaches as the gradient of a common objective under different data distribution assumptions and various bias-variance tradeoffs. The gradient estimator is constructed with four interchangeable parts: stabilization mask, reference policy denominator, advantage estimate, and likelihood gradient. Motivated by our theoretical findings, we propose Hybrid Post-Training (HPT), an algorithm that dynamically selects different training signals. HPT is designed to yield both effective exploitation of demonstration and stable exploration without sacrificing learned reasoning patterns. We provide extensive experiments and ablation studies to verify the effectiveness of our unified theoretical framework and HPT. Across six mathematical reasoning benchmarks and two out-of-distribution suites, HPT consistently surpasses strong baselines across models of varying scales and families.
PDF687September 5, 2025