ChatPaper.aiChatPaper

Confucius3-Math : Un modèle de langage léger et performant pour le raisonnement mathématique dans l'apprentissage des mathématiques du primaire au secondaire en Chine

Confucius3-Math: A Lightweight High-Performance Reasoning LLM for Chinese K-12 Mathematics Learning

June 23, 2025
Auteurs: Lixin Wu, Na Cai, Qiao Cheng, Jiachen Wang, Yitao Duan
cs.AI

Résumé

Nous présentons Confucius3-Math, un modèle de langage open-source de grande envergure avec 14 milliards de paramètres qui (1) fonctionne efficacement sur un seul GPU grand public ; (2) atteint des performances de pointe sur une gamme de tâches de raisonnement mathématique, surpassant de nombreux modèles de taille nettement plus importante. Dans le cadre de notre mission visant à améliorer l'éducation et la diffusion des connaissances grâce à l'IA, Confucius3-Math est spécifiquement dédié à l'apprentissage des mathématiques pour les élèves et éducateurs chinois du primaire et du secondaire (K-12). Développé via un post-entraînement avec un apprentissage par renforcement (RL) à grande échelle, Confucius3-Math s'aligne sur le programme national et excelle dans la résolution des problèmes mathématiques courants du K-12 chinois à faible coût. Dans ce rapport, nous partageons notre méthode de développement, les défis rencontrés et les techniques développées pour les surmonter. Nous introduisons en particulier trois innovations techniques : la Régularisation d'Entropie Ciblée, la Récupération d'Échantillons Récents et la Pondération de Difficulté Spécifique à la Politique. Ces innovations incluent une nouvelle régularisation d'entropie, une politique de planification des données inédite et un estimateur d'avantage relatif par groupe amélioré. Ensemble, elles stabilisent significativement l'entraînement RL, améliorent l'efficacité des données et boostent les performances. Notre travail démontre la faisabilité de construire des modèles de raisonnement puissants dans un domaine spécifique à faible coût. Nous mettons à disposition notre modèle et notre code à l'adresse suivante : https://github.com/netease-youdao/Confucius3-Math.
English
We introduce Confucius3-Math, an open-source large language model with 14B parameters that (1) runs efficiently on a single consumer-grade GPU; (2) achieves SOTA performances on a range of mathematical reasoning tasks, outperforming many models with significantly larger sizes. In particular, as part of our mission to enhancing education and knowledge dissemination with AI, Confucius3-Math is specifically committed to mathematics learning for Chinese K-12 students and educators. Built via post-training with large-scale reinforcement learning (RL), Confucius3-Math aligns with national curriculum and excels at solving main-stream Chinese K-12 mathematical problems with low cost. In this report we share our development recipe, the challenges we encounter and the techniques we develop to overcome them. In particular, we introduce three technical innovations: Targeted Entropy Regularization, Recent Sample Recovery and Policy-Specific Hardness Weighting. These innovations encompass a new entropy regularization, a novel data scheduling policy, and an improved group-relative advantage estimator. Collectively, they significantly stabilize the RL training, improve data efficiency, and boost performance. Our work demonstrates the feasibility of building strong reasoning models in a particular domain at low cost. We open-source our model and code at https://github.com/netease-youdao/Confucius3-Math.
PDF41June 30, 2025