ChatPaper.aiChatPaper

InternLM-Math: Modelos de Lenguaje de Gran Escala para Matemáticas Abiertos Hacia un Razonamiento Verificable

InternLM-Math: Open Math Large Language Models Toward Verifiable Reasoning

February 9, 2024
Autores: Huaiyuan Ying, Shuo Zhang, Linyang Li, Zhejian Zhou, Yunfan Shao, Zhaoye Fei, Yichuan Ma, Jiawei Hong, Kuikun Liu, Ziyi Wang, Yudong Wang, Zijian Wu, Shuaibin Li, Fengzhe Zhou, Hongwei Liu, Songyang Zhang, Wenwei Zhang, Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin
cs.AI

Resumen

Las habilidades matemáticas de los modelos de lenguaje de gran escala pueden representar su capacidad de razonamiento abstracto. En este artículo, presentamos y liberamos nuestros modelos de lenguaje de razonamiento matemático InternLM-Math, los cuales se han preentrenado continuamente a partir de InternLM2. Unificamos el razonamiento de cadena de pensamiento, el modelado de recompensas, el razonamiento formal, la ampliación de datos y el intérprete de código en un formato seq2seq unificado, y supervisamos nuestro modelo para que sea un razonador, verificador, demostrador y ampliador matemático versátil. Estas habilidades pueden utilizarse para desarrollar los próximos modelos de lenguaje matemático o para la auto-iteración. InternLM-Math obtiene un rendimiento de vanguardia de código abierto en el contexto de aprendizaje en contexto, ajuste fino supervisado y razonamiento asistido por código en varios puntos de referencia informales y formales, incluyendo GSM8K, MATH, el examen de matemáticas de Hungría, MathBench-ZH y MiniF2F. Nuestro modelo preentrenado alcanza un puntaje de 30.3 en el conjunto de pruebas MiniF2F sin ajuste fino. Además, exploramos cómo utilizar LEAN para resolver problemas matemáticos y estudiamos su rendimiento en el contexto de aprendizaje multitarea, lo que muestra la posibilidad de usar LEAN como una plataforma unificada para resolver y demostrar en matemáticas. Nuestros modelos, códigos y datos están disponibles en https://github.com/InternLM/InternLM-Math.
English
The math abilities of large language models can represent their abstract reasoning ability. In this paper, we introduce and open-source our math reasoning LLMs InternLM-Math which is continue pre-trained from InternLM2. We unify chain-of-thought reasoning, reward modeling, formal reasoning, data augmentation, and code interpreter in a unified seq2seq format and supervise our model to be a versatile math reasoner, verifier, prover, and augmenter. These abilities can be used to develop the next math LLMs or self-iteration. InternLM-Math obtains open-sourced state-of-the-art performance under the setting of in-context learning, supervised fine-tuning, and code-assisted reasoning in various informal and formal benchmarks including GSM8K, MATH, Hungary math exam, MathBench-ZH, and MiniF2F. Our pre-trained model achieves 30.3 on the MiniF2F test set without fine-tuning. We further explore how to use LEAN to solve math problems and study its performance under the setting of multi-task learning which shows the possibility of using LEAN as a unified platform for solving and proving in math. Our models, codes, and data are released at https://github.com/InternLM/InternLM-Math.
PDF201December 15, 2024