ChatPaper.aiChatPaper

OpenMathInstruct-1: Un dataset di 1,8 milioni di istruzioni matematiche per il tuning

OpenMathInstruct-1: A 1.8 Million Math Instruction Tuning Dataset

February 15, 2024
Autori: Shubham Toshniwal, Ivan Moshkov, Sean Narenthiran, Daria Gitman, Fei Jia, Igor Gitman
cs.AI

Abstract

Recenti lavori hanno dimostrato l'enorme potenziale dei dataset generati sinteticamente per l'addestramento di grandi modelli linguistici (LLM), in particolare per l'acquisizione di competenze mirate. Gli attuali dataset su larga scala per il tuning delle istruzioni matematiche, come MetaMathQA (Yu et al., 2024) e MAmmoTH (Yue et al., 2024), sono costruiti utilizzando output di LLM proprietari con licenze commercialmente restrittive. Un motivo chiave che limita l'uso di LLM open-source in queste pipeline di generazione di dati è stato il divario significativo tra le competenze matematiche dei migliori LLM proprietari, come GPT-4, e i migliori LLM open-source. Basandoci sui recenti progressi nei LLM open-source, sulla nostra proposta innovativa di prompting e su un certo scaling di forza bruta, abbiamo costruito OpenMathInstruct-1, un dataset per il tuning delle istruzioni matematiche con 1,8 milioni di coppie problema-soluzione. Il dataset è stato costruito sintetizzando soluzioni tramite interprete di codice per GSM8K e MATH, due popolari benchmark di ragionamento matematico, utilizzando il modello Mixtral, recentemente rilasciato e con licenza permissiva. Il nostro miglior modello, OpenMath-CodeLlama-70B, addestrato su un sottoinsieme di OpenMathInstruct-1, raggiunge un punteggio dell'84,6% su GSM8K e del 50,7% su MATH, risultando competitivo con i migliori modelli distillati da GPT. Rilasciamo il nostro codice, i modelli e il dataset OpenMathInstruct-1 sotto una licenza commercialmente permissiva.
English
Recent work has shown the immense potential of synthetically generated datasets for training large language models (LLMs), especially for acquiring targeted skills. Current large-scale math instruction tuning datasets such as MetaMathQA (Yu et al., 2024) and MAmmoTH (Yue et al., 2024) are constructed using outputs from closed-source LLMs with commercially restrictive licenses. A key reason limiting the use of open-source LLMs in these data generation pipelines has been the wide gap between the mathematical skills of the best closed-source LLMs, such as GPT-4, and the best open-source LLMs. Building on the recent progress in open-source LLMs, our proposed prompting novelty, and some brute-force scaling, we construct OpenMathInstruct-1, a math instruction tuning dataset with 1.8M problem-solution pairs. The dataset is constructed by synthesizing code-interpreter solutions for GSM8K and MATH, two popular math reasoning benchmarks, using the recently released and permissively licensed Mixtral model. Our best model, OpenMath-CodeLlama-70B, trained on a subset of OpenMathInstruct-1, achieves a score of 84.6% on GSM8K and 50.7% on MATH, which is competitive with the best gpt-distilled models. We release our code, models, and the OpenMathInstruct-1 dataset under a commercially permissive license.
PDF384December 15, 2024