InternLM-Math: Modelos de Lenguaje de Gran Escala para Matemáticas Abiertos Hacia un Razonamiento Verificable
InternLM-Math: Open Math Large Language Models Toward Verifiable Reasoning
February 9, 2024
Autores: Huaiyuan Ying, Shuo Zhang, Linyang Li, Zhejian Zhou, Yunfan Shao, Zhaoye Fei, Yichuan Ma, Jiawei Hong, Kuikun Liu, Ziyi Wang, Yudong Wang, Zijian Wu, Shuaibin Li, Fengzhe Zhou, Hongwei Liu, Songyang Zhang, Wenwei Zhang, Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin
cs.AI
Resumen
Las habilidades matemáticas de los modelos de lenguaje de gran escala pueden representar su capacidad de razonamiento abstracto. En este artículo, presentamos y liberamos nuestros modelos de lenguaje de razonamiento matemático InternLM-Math, los cuales se han preentrenado continuamente a partir de InternLM2. Unificamos el razonamiento de cadena de pensamiento, el modelado de recompensas, el razonamiento formal, la ampliación de datos y el intérprete de código en un formato seq2seq unificado, y supervisamos nuestro modelo para que sea un razonador, verificador, demostrador y ampliador matemático versátil. Estas habilidades pueden utilizarse para desarrollar los próximos modelos de lenguaje matemático o para la auto-iteración. InternLM-Math obtiene un rendimiento de vanguardia de código abierto en el contexto de aprendizaje en contexto, ajuste fino supervisado y razonamiento asistido por código en varios puntos de referencia informales y formales, incluyendo GSM8K, MATH, el examen de matemáticas de Hungría, MathBench-ZH y MiniF2F. Nuestro modelo preentrenado alcanza un puntaje de 30.3 en el conjunto de pruebas MiniF2F sin ajuste fino. Además, exploramos cómo utilizar LEAN para resolver problemas matemáticos y estudiamos su rendimiento en el contexto de aprendizaje multitarea, lo que muestra la posibilidad de usar LEAN como una plataforma unificada para resolver y demostrar en matemáticas. Nuestros modelos, códigos y datos están disponibles en https://github.com/InternLM/InternLM-Math.
English
The math abilities of large language models can represent their abstract
reasoning ability. In this paper, we introduce and open-source our math
reasoning LLMs InternLM-Math which is continue pre-trained from InternLM2. We
unify chain-of-thought reasoning, reward modeling, formal reasoning, data
augmentation, and code interpreter in a unified seq2seq format and supervise
our model to be a versatile math reasoner, verifier, prover, and augmenter.
These abilities can be used to develop the next math LLMs or self-iteration.
InternLM-Math obtains open-sourced state-of-the-art performance under the
setting of in-context learning, supervised fine-tuning, and code-assisted
reasoning in various informal and formal benchmarks including GSM8K, MATH,
Hungary math exam, MathBench-ZH, and MiniF2F. Our pre-trained model achieves
30.3 on the MiniF2F test set without fine-tuning. We further explore how to use
LEAN to solve math problems and study its performance under the setting of
multi-task learning which shows the possibility of using LEAN as a unified
platform for solving and proving in math. Our models, codes, and data are
released at https://github.com/InternLM/InternLM-Math.