Прогнозирующий отбор данных: данные, которые предсказывают, — это данные, которые обучаютPredictive Data Selection: The Data That Predicts Is the Data That
Teaches
Предварительное обучение языковых моделей предполагает обучение на обширных корпусах текстов, где качество данных играет ключевую роль. В данной работе мы стремимся напрямую оценить вклад данных в процессе предварительного обучения и выбрать данные для обучения эффективным способом. В частности, мы вдохновляемся недавними исследованиями, которые показывают, что эффективность сжатия (т.е. нормализованная ошибка) различных моделей на определённых текстах сильно коррелирует с их производительностью на последующих задачах, если домен текста соответствует целевому бенчмарку (Huang et al., 2024). Опираясь на это наблюдение, мы выдвигаем гипотезу, что данные, на которых ошибки модели предсказывают её способности на последующих задачах, также эффективно способствуют обучению. Чтобы использовать это понимание, мы представляем метод выбора данных на основе их предсказательной силы (PreSelect) — лёгкий и эффективный метод выбора данных, который требует обучения и использования только быстрого классификатора на основе fastText. В ходе всесторонних экспериментов с моделями на 1 млрд и 3 млрд параметров мы демонстрируем, что модели, обученные на 30 млрд токенов, отобранных с помощью PreSelect, превосходят по производительности базовую модель, обученную на 300 млрд токенов, достигая 10-кратного сокращения вычислительных затрат. Более того, PreSelect значительно превосходит другие конкурентоспособные методы выбора данных, такие как DCLM и FineWeb-Edu, на уровне моделей с 3 млрд параметров, обученных на 100 млрд токенов. Мы открываем исходный код нашего обученного классификатора для выбора данных вместе с отобранными наборами данных по адресу https://github.com/hkust-nlp/PreSelect.