ChatPaper.aiChatPaper

Aryabhata : Un modèle de langage axé sur les examens pour les mathématiques du JEE

Aryabhata: An exam-focused language model for JEE Math

August 12, 2025
papers.authors: Ritvik Rastogi, Sachin Dharashivkar, Sandeep Varma
cs.AI

papers.abstract

Nous présentons Aryabhata 1.0, un modèle compact de raisonnement mathématique à 7 milliards de paramètres, optimisé pour l'examen académique indien, le Joint Entrance Examination (JEE). Malgré les progrès rapides des grands modèles de langage (LLM), les modèles actuels restent souvent inadaptés à un usage éducatif. Aryabhata 1.0 est construit en fusionnant des modèles de raisonnement open-weight performants, suivis d'un fine-tuning supervisé (SFT) avec apprentissage curriculaire sur des traces vérifiées de raisonnement en chaîne (CoT) sélectionnées via un échantillonnage par rejet best-of-n. Pour améliorer encore les performances, nous appliquons un apprentissage par renforcement avec récompenses vérifiables (RLVR) en utilisant l'objectif A2C avec estimation d'avantage relative par groupe, ainsi que des stratégies d'exploration novatrices telles que le redimensionnement adaptatif de groupe et la mise à l'échelle de la température. Évalué sur des benchmarks en distribution (JEE Main 2025) et hors distribution (MATH, GSM8K), Aryabhata surpasse les modèles existants en termes de précision et d'efficacité, tout en offrant un raisonnement étape par étape pédagogiquement utile. Nous publions Aryabhata comme modèle de base pour faire progresser les petits modèles de langage open-source centrés sur les examens. Il s'agit de notre première publication ouverte pour recueillir les retours de la communauté (https://huggingface.co/PhysicsWallahAI/Aryabhata-1.0{Aryabhata 1.0 sur Hugging Face}) ; PW forme activement de futurs modèles pour améliorer encore les résultats d'apprentissage des étudiants.
English
We present Aryabhata 1.0, a compact 7B parameter math reasoning model optimized for the Indian academic exam, the Joint Entrance Examination (JEE). Despite rapid progress in large language models (LLMs), current models often remain unsuitable for educational use. Aryabhata 1.0 is built by merging strong open-weight reasoning models, followed by supervised fine-tuning (SFT) with curriculum learning on verified chain-of-thought (CoT) traces curated through best-of-n rejection sampling. To further boost performance, we apply reinforcement learning with verifiable rewards (RLVR) using A2C objective with group-relative advantage estimation alongwith novel exploration strategies such as Adaptive Group Resizing and Temperature Scaling. Evaluated on both in-distribution (JEE Main 2025) and out-of-distribution (MATH, GSM8K) benchmarks, Aryabhata outperforms existing models in accuracy and efficiency, while offering pedagogically useful step-by-step reasoning. We release Aryabhata as a foundation model to advance exam-centric, open-source small language models. This marks our first open release for community feedback (https://huggingface.co/PhysicsWallahAI/Aryabhata-1.0{Aryabhata 1.0 on Hugging Face}); PW is actively training future models to further improve learning outcomes for students.
PDF152August 13, 2025