OpenMathInstruct-1: 180만 개의 수학 명령어 튜닝 데이터셋
OpenMathInstruct-1: A 1.8 Million Math Instruction Tuning Dataset
February 15, 2024
저자: Shubham Toshniwal, Ivan Moshkov, Sean Narenthiran, Daria Gitman, Fei Jia, Igor Gitman
cs.AI
초록
최근 연구는 합성적으로 생성된 데이터셋이 대규모 언어 모델(LLM)을 훈련하는 데 있어, 특히 특정 기술을 습득하는 데 있어 엄청난 잠재력을 보여주고 있다. 현재 MetaMathQA(Yu et al., 2024) 및 MAmmoTH(Yue et al., 2024)와 같은 대규모 수학 지시 튜닝 데이터셋은 상업적으로 제한적인 라이선스를 가진 폐쇄형 LLM의 출력을 사용하여 구축되었다. 이러한 데이터 생성 파이프라인에서 오픈소스 LLM의 사용을 제한하는 주요 이유는 GPT-4와 같은 최고의 폐쇄형 LLM과 최고의 오픈소스 LLM 간의 수학적 기술 격차가 크기 때문이다. 최근 오픈소스 LLM의 발전, 우리가 제안한 프롬프팅의 독창성, 그리고 일부 무차별 확장을 기반으로, 우리는 180만 개의 문제-해결 쌍을 가진 수학 지시 튜닝 데이터셋인 OpenMathInstruct-1을 구축했다. 이 데이터셋은 최근 출시되고 허가적 라이선스를 가진 Mixtral 모델을 사용하여 GSM8K와 MATH라는 두 가지 인기 있는 수학 추론 벤치마크에 대한 코드 인터프리터 해결책을 합성하여 구축되었다. OpenMathInstruct-1의 일부를 훈련한 우리의 최고 모델인 OpenMath-CodeLlama-70B는 GSM8K에서 84.6%, MATH에서 50.7%의 점수를 달성하여 최고의 GPT-증류 모델과 경쟁력이 있다. 우리는 코드, 모델, 그리고 OpenMathInstruct-1 데이터셋을 상업적으로 허가적인 라이선스 하에 공개한다.
English
Recent work has shown the immense potential of synthetically generated
datasets for training large language models (LLMs), especially for acquiring
targeted skills. Current large-scale math instruction tuning datasets such as
MetaMathQA (Yu et al., 2024) and MAmmoTH (Yue et al., 2024) are constructed
using outputs from closed-source LLMs with commercially restrictive licenses. A
key reason limiting the use of open-source LLMs in these data generation
pipelines has been the wide gap between the mathematical skills of the best
closed-source LLMs, such as GPT-4, and the best open-source LLMs. Building on
the recent progress in open-source LLMs, our proposed prompting novelty, and
some brute-force scaling, we construct OpenMathInstruct-1, a math instruction
tuning dataset with 1.8M problem-solution pairs. The dataset is constructed by
synthesizing code-interpreter solutions for GSM8K and MATH, two popular math
reasoning benchmarks, using the recently released and permissively licensed
Mixtral model. Our best model, OpenMath-CodeLlama-70B, trained on a subset of
OpenMathInstruct-1, achieves a score of 84.6% on GSM8K and 50.7% on MATH, which
is competitive with the best gpt-distilled models. We release our code, models,
and the OpenMathInstruct-1 dataset under a commercially permissive license.