CLIMB: Кластеризация на основе итеративного бутстрэппинга смеси данных для предварительного обучения языковых моделейCLIMB: CLustering-based Iterative Data Mixture Bootstrapping for
Language Model Pre-training
Наборы данных для предварительного обучения обычно собираются из веб-контента и не имеют явного разделения на домены. Например, широко используемые наборы данных, такие как Common Crawl, не содержат явных меток доменов, в то время как ручное создание размеченных наборов данных, таких как The Pile, требует значительных усилий. В результате определение оптимальной смеси данных для предварительного обучения остается сложной задачей, несмотря на ее значительное влияние на производительность предварительного обучения. Для решения этих проблем мы предлагаем CLustering-based Iterative Data Mixture Bootstrapping (CLIMB) — автоматизированную структуру, которая обнаруживает, оценивает и улучшает смеси данных в контексте предварительного обучения. В частности, CLIMB встраивает и кластеризует крупномасштабные наборы данных в семантическом пространстве, а затем итеративно ищет оптимальные смеси с использованием меньшей модели-заместителя и предсказателя. При непрерывном обучении на 400 миллиардах токенов с такой смесью наша модель объемом 1 миллиард параметров превосходит современную модель Llama-3.2-1B на 2,0%. Более того, мы наблюдаем, что оптимизация для конкретного домена (например, социальных наук) дает улучшение на 5% по сравнению со случайной выборкой. Наконец, мы представляем ClimbLab — отфильтрованный корпус объемом 1,2 триллиона токенов с 20 кластерами в качестве исследовательской площадки, а также ClimbMix — компактный, но мощный набор данных объемом 400 миллиардов токенов, предназначенный для эффективного предварительного обучения, который демонстрирует превосходную производительность при равном бюджете токенов. Мы анализируем итоговую смесь данных, раскрывая характеристики оптимальной смеси. Наши данные доступны по адресу: https://research.nvidia.com/labs/lpr/climb/