ChatPaper.aiChatPaper

OpenMathInstruct-1: Un conjunto de datos de ajuste de instrucciones matemáticas con 1.8 millones de ejemplos

OpenMathInstruct-1: A 1.8 Million Math Instruction Tuning Dataset

February 15, 2024
Autores: Shubham Toshniwal, Ivan Moshkov, Sean Narenthiran, Daria Gitman, Fei Jia, Igor Gitman
cs.AI

Resumen

Trabajos recientes han demostrado el inmenso potencial de los conjuntos de datos generados sintéticamente para entrenar modelos de lenguaje grandes (LLMs), especialmente para adquirir habilidades específicas. Los actuales conjuntos de datos a gran escala para el ajuste de instrucciones matemáticas, como MetaMathQA (Yu et al., 2024) y MAmmoTH (Yue et al., 2024), se construyen utilizando salidas de LLMs de código cerrado con licencias comercialmente restrictivas. Una razón clave que limita el uso de LLMs de código abierto en estos pipelines de generación de datos ha sido la amplia brecha entre las habilidades matemáticas de los mejores LLMs de código cerrado, como GPT-4, y los mejores LLMs de código abierto. Basándonos en los avances recientes en LLMs de código abierto, nuestra propuesta de novedad en el prompting y un escalado forzado, construimos OpenMathInstruct-1, un conjunto de datos para el ajuste de instrucciones matemáticas con 1.8 millones de pares problema-solución. El conjunto de datos se construye sintetizando soluciones de intérpretes de código para GSM8K y MATH, dos populares benchmarks de razonamiento matemático, utilizando el modelo Mixtral, recientemente lanzado y con licencia permisiva. Nuestro mejor modelo, OpenMath-CodeLlama-70B, entrenado en un subconjunto de OpenMathInstruct-1, alcanza una puntuación del 84.6% en GSM8K y del 50.7% en MATH, lo que es competitivo con los mejores modelos destilados de GPT. Publicamos nuestro código, modelos y el conjunto de datos OpenMathInstruct-1 bajo una licencia comercialmente permisiva.
English
Recent work has shown the immense potential of synthetically generated datasets for training large language models (LLMs), especially for acquiring targeted skills. Current large-scale math instruction tuning datasets such as MetaMathQA (Yu et al., 2024) and MAmmoTH (Yue et al., 2024) are constructed using outputs from closed-source LLMs with commercially restrictive licenses. A key reason limiting the use of open-source LLMs in these data generation pipelines has been the wide gap between the mathematical skills of the best closed-source LLMs, such as GPT-4, and the best open-source LLMs. Building on the recent progress in open-source LLMs, our proposed prompting novelty, and some brute-force scaling, we construct OpenMathInstruct-1, a math instruction tuning dataset with 1.8M problem-solution pairs. The dataset is constructed by synthesizing code-interpreter solutions for GSM8K and MATH, two popular math reasoning benchmarks, using the recently released and permissively licensed Mixtral model. Our best model, OpenMath-CodeLlama-70B, trained on a subset of OpenMathInstruct-1, achieves a score of 84.6% on GSM8K and 50.7% on MATH, which is competitive with the best gpt-distilled models. We release our code, models, and the OpenMathInstruct-1 dataset under a commercially permissive license.

Summary

AI-Generated Summary

PDF384December 15, 2024