Wie Instruktions- und Argumentationsdaten das Post-Training prägen: Datenqualität aus der Perspektive schichtweiser Gradienten
How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients
April 14, 2025
Autoren: Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
cs.AI
Zusammenfassung
Während das Post-Training großer Sprachmodelle (LLMs) von der Befolgung von Anweisungen zu komplexen Denkaufgaben fortschreitet, bleibt das Verständnis darüber, wie unterschiedliche Daten die Feinabstimmungsdynamik beeinflussen, weitgehend unerforscht. In diesem Artikel präsentieren wir eine spektrale Analyse der schichtweisen Gradienten, die durch qualitativ hochwertige und minderwertige Anweisungs- und Denkdaten für das Post-Training von LLMs induziert werden. Unsere Analyse zeigt, dass weit verbreitete Metriken zur Datenbewertung, z. B. IFD, InsTag, Schwierigkeit und Belohnung, durch spektrale Eigenschaften erklärt und vereinheitlicht werden können, die aus der Singulärwertzerlegung (SVD) der Gradienten berechnet werden. Insbesondere sind qualitativ höherwertige Daten in der Regel mit niedrigeren nuklearen Normen und höheren effektiven Rängen verbunden. Bemerkenswerterweise zeigt der effektive Rang eine bessere Robustheit und Auflösung als die nukleare Norm bei der Erfassung subtiler Qualitätsunterschiede. Beispielsweise erreichen Denkdaten deutlich höhere effektive Ränge als Anweisungsdaten, was auf reichere Gradientenstrukturen bei komplexeren Aufgaben hindeutet. Unsere Experimente zeigen auch, dass Modelle innerhalb derselben Familie unabhängig von ihrer Größe ähnliche Gradientenmuster aufweisen, während sich verschiedene Modellfamilien erheblich unterscheiden. Indem diese Arbeit eine einheitliche Sicht auf die Auswirkungen der Datenqualität über Anweisungs- und Denkdaten hinweg bietet, beleuchtet sie das Zusammenspiel zwischen Datenqualität und Trainingsstabilität und liefert neue Erkenntnisse für die Entwicklung besserer Datenexplorationsstrategien für das Post-Training.
English
As the post-training of large language models (LLMs) advances from
instruction-following to complex reasoning tasks, understanding how different
data affect finetuning dynamics remains largely unexplored. In this paper, we
present a spectral analysis of layer-wise gradients induced by low/high-quality
instruction and reasoning data for LLM post-training. Our analysis reveals that
widely-studied metrics for data evaluation, e.g., IFD, InsTag, Difficulty, and
Reward, can be explained and unified by spectral properties computed from
gradients' singular value decomposition (SVD). Specifically, higher-quality
data are usually associated with lower nuclear norms and higher effective
ranks. Notably, effective rank exhibits better robustness and resolution than
nuclear norm in capturing subtle quality differences. For example, reasoning
data achieves substantially higher effective ranks than instruction data,
implying richer gradient structures on more complex tasks. Our experiments also
highlight that models within the same family share similar gradient patterns
regardless of their sizes, whereas different model families diverge
significantly. Providing a unified view on the effects of data quality across
instruction and reasoning data, this work illuminates the interplay between
data quality and training stability, shedding novel insights into developing
better data exploration strategies for post-training.Summary
AI-Generated Summary