Comment les données d'instruction et de raisonnement influencent le post-entraînement : Qualité des données à travers le prisme des gradients par couche
How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients
April 14, 2025
Auteurs: Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
cs.AI
Résumé
Alors que le post-entraînement des grands modèles de langage (LLM) évolue de la simple exécution d'instructions vers des tâches de raisonnement complexe, la compréhension de l'impact des différentes données sur la dynamique de l'affinage reste largement inexplorée. Dans cet article, nous présentons une analyse spectrale des gradients couche par couche induits par des données d'instruction et de raisonnement de qualité faible/élevée pour le post-entraînement des LLM. Notre analyse révèle que les métriques largement étudiées pour l'évaluation des données, telles que IFD, InsTag, Difficulté et Récompense, peuvent être expliquées et unifiées par les propriétés spectrales calculées à partir de la décomposition en valeurs singulières (SVD) des gradients. Plus précisément, les données de qualité supérieure sont généralement associées à des normes nucléaires plus faibles et à des rangs effectifs plus élevés. Notamment, le rang effectif montre une meilleure robustesse et résolution que la norme nucléaire pour capturer des différences subtiles de qualité. Par exemple, les données de raisonnement atteignent des rangs effectifs nettement plus élevés que les données d'instruction, impliquant des structures de gradient plus riches sur des tâches plus complexes. Nos expériences soulignent également que les modèles d'une même famille partagent des motifs de gradient similaires, indépendamment de leur taille, alors que les différentes familles de modèles divergent significativement. Offrant une vision unifiée des effets de la qualité des données sur les données d'instruction et de raisonnement, ce travail éclaire l'interaction entre la qualité des données et la stabilité de l'entraînement, apportant de nouvelles perspectives pour développer de meilleures stratégies d'exploration des données pour le post-entraînement.
English
As the post-training of large language models (LLMs) advances from
instruction-following to complex reasoning tasks, understanding how different
data affect finetuning dynamics remains largely unexplored. In this paper, we
present a spectral analysis of layer-wise gradients induced by low/high-quality
instruction and reasoning data for LLM post-training. Our analysis reveals that
widely-studied metrics for data evaluation, e.g., IFD, InsTag, Difficulty, and
Reward, can be explained and unified by spectral properties computed from
gradients' singular value decomposition (SVD). Specifically, higher-quality
data are usually associated with lower nuclear norms and higher effective
ranks. Notably, effective rank exhibits better robustness and resolution than
nuclear norm in capturing subtle quality differences. For example, reasoning
data achieves substantially higher effective ranks than instruction data,
implying richer gradient structures on more complex tasks. Our experiments also
highlight that models within the same family share similar gradient patterns
regardless of their sizes, whereas different model families diverge
significantly. Providing a unified view on the effects of data quality across
instruction and reasoning data, this work illuminates the interplay between
data quality and training stability, shedding novel insights into developing
better data exploration strategies for post-training.Summary
AI-Generated Summary