Como os Dados de Instrução e Raciocínio Moldam o Pós-Treinamento: Qualidade dos Dados sob a Perspectiva dos Gradientes Camada a Camada
How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients
April 14, 2025
Autores: Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
cs.AI
Resumo
À medida que o pós-treinamento de grandes modelos de linguagem (LLMs) avança de tarefas de seguir instruções para tarefas de raciocínio complexo, compreender como diferentes dados afetam a dinâmica de ajuste fino permanece amplamente inexplorado. Neste artigo, apresentamos uma análise espectral dos gradientes camada por camada induzidos por dados de instrução e raciocínio de baixa/alta qualidade para o pós-treinamento de LLMs. Nossa análise revela que métricas amplamente estudadas para avaliação de dados, como IFD, InsTag, Dificuldade e Recompensa, podem ser explicadas e unificadas por propriedades espectrais calculadas a partir da decomposição em valores singulares (SVD) dos gradientes. Especificamente, dados de maior qualidade estão geralmente associados a normas nucleares mais baixas e ranks efetivos mais altos. Notavelmente, o rank efetivo exibe melhor robustez e resolução do que a norma nuclear ao capturar diferenças sutis de qualidade. Por exemplo, dados de raciocínio alcançam ranks efetivos substancialmente mais altos do que dados de instrução, implicando estruturas de gradiente mais ricas em tarefas mais complexas. Nossos experimentos também destacam que modelos dentro da mesma família compartilham padrões de gradiente semelhantes, independentemente de seus tamanhos, enquanto diferentes famílias de modelos divergem significativamente. Fornecendo uma visão unificada sobre os efeitos da qualidade dos dados em dados de instrução e raciocínio, este trabalho ilumina a interação entre a qualidade dos dados e a estabilidade do treinamento, oferecendo novos insights para o desenvolvimento de melhores estratégias de exploração de dados para o pós-treinamento.
English
As the post-training of large language models (LLMs) advances from
instruction-following to complex reasoning tasks, understanding how different
data affect finetuning dynamics remains largely unexplored. In this paper, we
present a spectral analysis of layer-wise gradients induced by low/high-quality
instruction and reasoning data for LLM post-training. Our analysis reveals that
widely-studied metrics for data evaluation, e.g., IFD, InsTag, Difficulty, and
Reward, can be explained and unified by spectral properties computed from
gradients' singular value decomposition (SVD). Specifically, higher-quality
data are usually associated with lower nuclear norms and higher effective
ranks. Notably, effective rank exhibits better robustness and resolution than
nuclear norm in capturing subtle quality differences. For example, reasoning
data achieves substantially higher effective ranks than instruction data,
implying richer gradient structures on more complex tasks. Our experiments also
highlight that models within the same family share similar gradient patterns
regardless of their sizes, whereas different model families diverge
significantly. Providing a unified view on the effects of data quality across
instruction and reasoning data, this work illuminates the interplay between
data quality and training stability, shedding novel insights into developing
better data exploration strategies for post-training.Summary
AI-Generated Summary