Selección de Datos a Gran Escala para el Ajuste de Instrucciones
Large-Scale Data Selection for Instruction Tuning
March 3, 2025
Autores: Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
cs.AI
Resumen
La selección de datos de entrenamiento de alta calidad a partir de un conjunto más amplio es un paso crucial al ajustar por instrucción modelos de lenguaje, ya que los conjuntos de datos cuidadosamente curados suelen producir modelos que superan a aquellos entrenados con conjuntos de datos mucho más grandes y ruidosos. Los enfoques automatizados de selección de datos para el ajuste por instrucción generalmente se prueban seleccionando conjuntos de datos pequeños (aproximadamente 10k muestras) de grupos reducidos (100-200k muestras). Sin embargo, los modelos populares ajustados por instrucción que se implementan suelen entrenarse con cientos de miles a millones de muestras, submuestreadas de conjuntos de datos aún más grandes. Presentamos un estudio sistemático de cómo los métodos de selección de datos escalan en estos escenarios, seleccionando hasta 2.5 millones de muestras de grupos de hasta 5.8 millones de muestras y evaluando en 7 tareas diversas. Mostramos que muchos métodos propuestos recientemente no superan la selección aleatoria en este contexto (mientras utilizan más recursos computacionales), e incluso disminuyen su rendimiento cuando tienen acceso a grupos más grandes de datos para seleccionar. Sin embargo, encontramos que una variante de selección de datos basada en representaciones (RDS+), que utiliza un agrupamiento ponderado de los estados ocultos de un modelo de lenguaje preentrenado, supera consistentemente métodos más complejos en todos los escenarios probados, además de ser más eficiente en términos computacionales. Nuestros hallazgos destacan que las propiedades de escalabilidad de los métodos de selección automatizados propuestos deberían examinarse más de cerca. Publicamos nuestro código, datos y modelos en https://github.com/hamishivi/automated-instruction-selection.
English
Selecting high-quality training data from a larger pool is a crucial step
when instruction-tuning language models, as carefully curated datasets often
produce models that outperform those trained on much larger, noisier datasets.
Automated data selection approaches for instruction-tuning are typically tested
by selecting small datasets (roughly 10k samples) from small pools (100-200k
samples). However, popular deployed instruction-tuned models often train on
hundreds of thousands to millions of samples, subsampled from even larger data
pools. We present a systematic study of how well data selection methods scale
to these settings, selecting up to 2.5M samples from pools of up to 5.8M
samples and evaluating across 7 diverse tasks. We show that many recently
proposed methods fall short of random selection in this setting (while using
more compute), and even decline in performance when given access to larger
pools of data to select over. However, we find that a variant of
representation-based data selection (RDS+), which uses weighted mean pooling of
pretrained LM hidden states, consistently outperforms more complex methods
across all settings tested -- all whilst being more compute-efficient. Our
findings highlight that the scaling properties of proposed automated selection
methods should be more closely examined. We release our code, data, and models
at https://github.com/hamishivi/automated-instruction-selection.Summary
AI-Generated Summary