Как данные инструкций и рассуждений влияют на пост-обучение: качество данных через призму послойных градиентов
How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients
April 14, 2025
Авторы: Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
cs.AI
Аннотация
По мере того как посттренировка больших языковых моделей (LLM) переходит от выполнения инструкций к сложным задачам логического рассуждения, понимание того, как различные данные влияют на динамику тонкой настройки, остается в значительной степени неисследованным. В данной статье мы представляем спектральный анализ послойных градиентов, вызванных данными низкого/высокого качества для инструкций и логических рассуждений при посттренировке LLM. Наш анализ показывает, что широко изучаемые метрики для оценки данных, такие как IFD, InsTag, Difficulty и Reward, могут быть объяснены и объединены с помощью спектральных свойств, вычисленных из сингулярного разложения (SVD) градиентов. В частности, данные более высокого качества обычно связаны с меньшими ядерными нормами и более высокими эффективными рангами. Примечательно, что эффективный ранг демонстрирует лучшую устойчивость и разрешающую способность, чем ядерная норма, при улавливании тонких различий в качестве. Например, данные для логических рассуждений достигают значительно более высоких эффективных рангов, чем данные для инструкций, что подразумевает более богатые структуры градиентов для более сложных задач. Наши эксперименты также подчеркивают, что модели из одного семейства демонстрируют схожие паттерны градиентов независимо от их размеров, тогда как модели из разных семейств значительно расходятся. Предоставляя унифицированный взгляд на влияние качества данных для инструкций и логических рассуждений, эта работа освещает взаимодействие между качеством данных и стабильностью обучения, предлагая новые идеи для разработки более эффективных стратегий исследования данных при посттренировке.
English
As the post-training of large language models (LLMs) advances from
instruction-following to complex reasoning tasks, understanding how different
data affect finetuning dynamics remains largely unexplored. In this paper, we
present a spectral analysis of layer-wise gradients induced by low/high-quality
instruction and reasoning data for LLM post-training. Our analysis reveals that
widely-studied metrics for data evaluation, e.g., IFD, InsTag, Difficulty, and
Reward, can be explained and unified by spectral properties computed from
gradients' singular value decomposition (SVD). Specifically, higher-quality
data are usually associated with lower nuclear norms and higher effective
ranks. Notably, effective rank exhibits better robustness and resolution than
nuclear norm in capturing subtle quality differences. For example, reasoning
data achieves substantially higher effective ranks than instruction data,
implying richer gradient structures on more complex tasks. Our experiments also
highlight that models within the same family share similar gradient patterns
regardless of their sizes, whereas different model families diverge
significantly. Providing a unified view on the effects of data quality across
instruction and reasoning data, this work illuminates the interplay between
data quality and training stability, shedding novel insights into developing
better data exploration strategies for post-training.Summary
AI-Generated Summary