Наборы данных FineWeb: Процесс извлечения лучших текстовых данных из сети в масштабеThe FineWeb Datasets: Decanting the Web for the Finest Text Data at
Scale
Производительность большой языковой модели (LLM) в значительной степени зависит от качества и размера набора данных для предварительного обучения. Однако наборы данных для предварительного обучения для передовых открытых LLM, таких как Llama 3 и Mixtral, не являются общедоступными, и очень мало известно о том, как они были созданы. В данной работе мы представляем FineWeb, набор данных объемом 15 триллионов токенов, полученный из 96 снимков Common Crawl, который обеспечивает более высокую производительность LLM по сравнению с другими открытыми наборами данных для предварительного обучения. Для продвижения понимания того, как лучше составлять высококачественные наборы данных для предварительного обучения, мы тщательно документируем и анализируем все используемые в FineWeb варианты проектирования, включая глубокие исследования стратегий дедупликации и фильтрации. Кроме того, мы представляем FineWeb-Edu, коллекцию текстов объемом 1,3 триллиона токенов, отобранных из FineWeb. LLM, предварительно обученные на FineWeb-Edu, проявляют значительно лучшую производительность на знаниевых и задачах, требующих рассуждений, таких как MMLU и ARC. Вместе с нашими наборами данных мы публично выпускаем нашу кодовую базу для курирования данных и все модели, обученные в ходе наших экспериментов по абляции.