OpenMathInstruct-1: Набор данных для тонкой настройки математических инструкций объемом 1,8 миллиона примеров
OpenMathInstruct-1: A 1.8 Million Math Instruction Tuning Dataset
February 15, 2024
Авторы: Shubham Toshniwal, Ivan Moshkov, Sean Narenthiran, Daria Gitman, Fei Jia, Igor Gitman
cs.AI
Аннотация
Недавние исследования продемонстрировали огромный потенциал синтетически сгенерированных наборов данных для обучения крупных языковых моделей (LLM), особенно для приобретения целевых навыков. Современные крупномасштабные наборы данных для настройки математических инструкций, такие как MetaMathQA (Yu et al., 2024) и MAmmoTH (Yue et al., 2024), создаются с использованием выходных данных закрытых LLM с коммерчески ограничительными лицензиями. Одной из ключевых причин, ограничивающих использование открытых LLM в этих процессах генерации данных, является значительный разрыв в математических навыках между лучшими закрытыми LLM, такими как GPT-4, и лучшими открытыми LLM. Опираясь на недавние достижения в области открытых LLM, нашу новую методику запросов и масштабирование с использованием "грубой силы", мы создали OpenMathInstruct-1 — набор данных для настройки математических инструкций, содержащий 1,8 миллиона пар "задача-решение". Этот набор данных создан путем синтеза решений с использованием интерпретатора кода для GSM8K и MATH, двух популярных бенчмарков математического мышления, с использованием недавно выпущенной модели Mixtral с разрешительной лицензией. Наша лучшая модель, OpenMath-CodeLlama-70B, обученная на подмножестве OpenMathInstruct-1, достигает показателей 84,6% на GSM8K и 50,7% на MATH, что конкурирует с лучшими моделями, обученными на данных GPT. Мы публикуем наш код, модели и набор данных OpenMathInstruct-1 под коммерчески разрешительной лицензией.
English
Recent work has shown the immense potential of synthetically generated
datasets for training large language models (LLMs), especially for acquiring
targeted skills. Current large-scale math instruction tuning datasets such as
MetaMathQA (Yu et al., 2024) and MAmmoTH (Yue et al., 2024) are constructed
using outputs from closed-source LLMs with commercially restrictive licenses. A
key reason limiting the use of open-source LLMs in these data generation
pipelines has been the wide gap between the mathematical skills of the best
closed-source LLMs, such as GPT-4, and the best open-source LLMs. Building on
the recent progress in open-source LLMs, our proposed prompting novelty, and
some brute-force scaling, we construct OpenMathInstruct-1, a math instruction
tuning dataset with 1.8M problem-solution pairs. The dataset is constructed by
synthesizing code-interpreter solutions for GSM8K and MATH, two popular math
reasoning benchmarks, using the recently released and permissively licensed
Mixtral model. Our best model, OpenMath-CodeLlama-70B, trained on a subset of
OpenMathInstruct-1, achieves a score of 84.6% on GSM8K and 50.7% on MATH, which
is competitive with the best gpt-distilled models. We release our code, models,
and the OpenMathInstruct-1 dataset under a commercially permissive license.