ChatPaper.aiChatPaper

InternLM-Math: Offene mathematische Large Language Models in Richtung verifizierbarer Schlussfolgerungen

InternLM-Math: Open Math Large Language Models Toward Verifiable Reasoning

February 9, 2024
Autoren: Huaiyuan Ying, Shuo Zhang, Linyang Li, Zhejian Zhou, Yunfan Shao, Zhaoye Fei, Yichuan Ma, Jiawei Hong, Kuikun Liu, Ziyi Wang, Yudong Wang, Zijian Wu, Shuaibin Li, Fengzhe Zhou, Hongwei Liu, Songyang Zhang, Wenwei Zhang, Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin
cs.AI

Zusammenfassung

Die mathematischen Fähigkeiten großer Sprachmodelle können ihre abstrakte Denkfähigkeit widerspiegeln. In diesem Artikel stellen wir unser mathematisches Reasoning-LLM InternLM-Math vor, das wir quelloffen veröffentlichen und das auf InternLM2 weiter vortrainiert wurde. Wir vereinen Chain-of-Thought-Reasoning, Reward-Modellierung, formales Reasoning, Datenanreicherung und Code-Interpreter in einem einheitlichen Seq2Seq-Format und überwachen unser Modell, um es zu einem vielseitigen mathematischen Denker, Verifizierer, Beweiser und Anreicherer zu machen. Diese Fähigkeiten können genutzt werden, um die nächste Generation mathematischer LLMs oder Selbstiterationen zu entwickeln. InternLM-Math erzielt quelloffene State-of-the-Art-Leistungen unter den Bedingungen von In-Context-Learning, überwachtem Fine-Tuning und codegestütztem Reasoning in verschiedenen informellen und formalen Benchmarks, darunter GSM8K, MATH, Ungarische Mathematikprüfung, MathBench-ZH und MiniF2F. Unser vortrainiertes Modell erreicht 30,3 auf dem MiniF2F-Testset ohne Fine-Tuning. Wir untersuchen weiterhin, wie LEAN zur Lösung mathematischer Probleme eingesetzt werden kann, und analysieren seine Leistung im Rahmen von Multi-Task-Learning, was die Möglichkeit aufzeigt, LEAN als einheitliche Plattform für das Lösen und Beweisen in der Mathematik zu nutzen. Unsere Modelle, Codes und Daten sind unter https://github.com/InternLM/InternLM-Math veröffentlicht.
English
The math abilities of large language models can represent their abstract reasoning ability. In this paper, we introduce and open-source our math reasoning LLMs InternLM-Math which is continue pre-trained from InternLM2. We unify chain-of-thought reasoning, reward modeling, formal reasoning, data augmentation, and code interpreter in a unified seq2seq format and supervise our model to be a versatile math reasoner, verifier, prover, and augmenter. These abilities can be used to develop the next math LLMs or self-iteration. InternLM-Math obtains open-sourced state-of-the-art performance under the setting of in-context learning, supervised fine-tuning, and code-assisted reasoning in various informal and formal benchmarks including GSM8K, MATH, Hungary math exam, MathBench-ZH, and MiniF2F. Our pre-trained model achieves 30.3 on the MiniF2F test set without fine-tuning. We further explore how to use LEAN to solve math problems and study its performance under the setting of multi-task learning which shows the possibility of using LEAN as a unified platform for solving and proving in math. Our models, codes, and data are released at https://github.com/InternLM/InternLM-Math.
PDF201December 15, 2024