Skywork-Math: Leyes de Escala de Datos para el Razonamiento Matemático en Modelos de Lenguaje Grandes -- La Historia ContinúaSkywork-Math: Data Scaling Laws for Mathematical Reasoning in Large
Language Models -- The Story Goes On
En este documento, investigamos los factores subyacentes que potencialmente mejoran las capacidades de razonamiento matemático de los grandes modelos de lenguaje (LLMs). Sostenemos que la ley de escalado de datos para las capacidades de razonamiento matemático en los LLMs modernos está lejos de estar saturada, resaltando cómo la calidad del modelo mejora con el aumento en la cantidad de datos. Para respaldar esta afirmación, presentamos la serie de modelos Skywork-Math, ajustados finamente supervisados (SFT) en LLMs comunes de 7B utilizando nuestro conjunto de datos Skywork-MathQA de 2.5M instancias propuesto. Skywork-Math 7B ha logrado precisión impresionante del 51.2% en el benchmark MATH a nivel de competencia y 83.9% en el benchmark GSM8K utilizando solo datos SFT, superando a una versión temprana de GPT-4 en MATH. El rendimiento superior de los modelos Skywork-Math contribuye a nuestras novedosas tuberías de síntesis de datos en dos etapas y ajuste fino de modelos, que incluyen tres métodos de aumento diferentes y un conjunto diverso de problemas iniciales, asegurando tanto la cantidad como la calidad del conjunto de datos Skywork-MathQA en diferentes niveles de dificultad. Lo más importante, proporcionamos varias lecciones prácticas para mejorar las habilidades de razonamiento matemático en LLMs tanto para aplicaciones de investigación como de la industria.