ChatPaper.aiChatPaper

Cómo los Datos de Instrucción y Razonamiento Moldean el Post-Entrenamiento: Calidad de los Datos a través del Prisma de los Gradientes por Capas

How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients

April 14, 2025
Autores: Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
cs.AI

Resumen

A medida que el entrenamiento posterior de modelos de lenguaje de gran escala (LLMs) avanza desde la capacidad de seguir instrucciones hasta tareas de razonamiento complejo, comprender cómo diferentes datos afectan la dinámica del ajuste fino sigue siendo en gran medida un área inexplorada. En este artículo, presentamos un análisis espectral de los gradientes por capas inducidos por datos de instrucción y razonamiento de baja/alta calidad para el entrenamiento posterior de LLMs. Nuestro análisis revela que las métricas ampliamente estudiadas para la evaluación de datos, como IFD, InsTag, Dificultad y Recompensa, pueden ser explicadas y unificadas mediante propiedades espectrales calculadas a partir de la descomposición en valores singulares (SVD) de los gradientes. Específicamente, los datos de mayor calidad suelen estar asociados con normas nucleares más bajas y rangos efectivos más altos. Notablemente, el rango efectivo muestra una mejor robustez y resolución que la norma nuclear al capturar diferencias sutiles en la calidad. Por ejemplo, los datos de razonamiento alcanzan rangos efectivos sustancialmente más altos que los datos de instrucción, lo que implica estructuras de gradiente más ricas en tareas más complejas. Nuestros experimentos también destacan que los modelos dentro de la misma familia comparten patrones de gradiente similares independientemente de sus tamaños, mientras que diferentes familias de modelos divergen significativamente. Al proporcionar una visión unificada sobre los efectos de la calidad de los datos en datos de instrucción y razonamiento, este trabajo ilumina la interacción entre la calidad de los datos y la estabilidad del entrenamiento, ofreciendo nuevas perspectivas para desarrollar mejores estrategias de exploración de datos en el entrenamiento posterior.
English
As the post-training of large language models (LLMs) advances from instruction-following to complex reasoning tasks, understanding how different data affect finetuning dynamics remains largely unexplored. In this paper, we present a spectral analysis of layer-wise gradients induced by low/high-quality instruction and reasoning data for LLM post-training. Our analysis reveals that widely-studied metrics for data evaluation, e.g., IFD, InsTag, Difficulty, and Reward, can be explained and unified by spectral properties computed from gradients' singular value decomposition (SVD). Specifically, higher-quality data are usually associated with lower nuclear norms and higher effective ranks. Notably, effective rank exhibits better robustness and resolution than nuclear norm in capturing subtle quality differences. For example, reasoning data achieves substantially higher effective ranks than instruction data, implying richer gradient structures on more complex tasks. Our experiments also highlight that models within the same family share similar gradient patterns regardless of their sizes, whereas different model families diverge significantly. Providing a unified view on the effects of data quality across instruction and reasoning data, this work illuminates the interplay between data quality and training stability, shedding novel insights into developing better data exploration strategies for post-training.

Summary

AI-Generated Summary

PDF402April 16, 2025