ChatPaper.aiChatPaper

SAND-Math : Utilisation des LLM pour générer des questions et réponses mathématiques nouvelles, difficiles et utiles

SAND-Math: Using LLMs to Generate Novel, Difficult and Useful Mathematics Questions and Answers

July 28, 2025
papers.authors: Chaitanya Manem, Pratik Prabhanjan Brahma, Prakamya Mishra, Zicheng Liu, Emad Barsoum
cs.AI

papers.abstract

La demande pour des modèles de langage de grande taille (LLMs) capables de raisonnements mathématiques sophistiqués est en croissance dans divers secteurs. Cependant, le développement de LLMs performants en mathématiques est fortement limité par la rareté de données d'entraînement difficiles et novatrices. Nous présentons SAND-Math (Synthetic Augmented Novel and Difficult Mathematics problems and solutions), un pipeline qui répond à ce problème en générant d'abord des problèmes de haute qualité à partir de zéro, puis en augmentant systématiquement leur complexité grâce à une nouvelle étape appelée Difficulty Hiking. Nous démontrons l'efficacité de notre approche à travers deux résultats clés. Premièrement, l'enrichissement d'un modèle de référence avec les données de SAND-Math améliore significativement les performances, surpassant le meilleur ensemble de données synthétiques existant de 17,85 points absolus sur le benchmark AIME25. Deuxièmement, dans une étude d'ablation dédiée, nous montrons que notre processus de Difficulty Hiking est très efficace : en augmentant la difficulté moyenne des problèmes de 5,02 à 5,98, cette étape améliore les performances sur AIME25 de 46,38 % à 49,23 %. Le pipeline complet de génération, l'ensemble de données final et un modèle affiné constituent une boîte à outils pratique et évolutive pour construire des LLMs de raisonnement mathématique plus performants et efficaces. Le jeu de données SAND-Math est disponible ici : https://huggingface.co/datasets/amd/SAND-MATH{https://huggingface.co/datasets/amd/SAND-MATH}
English
The demand for Large Language Models (LLMs) capable of sophisticated mathematical reasoning is growing across industries. However, the development of performant mathematical LLMs is critically bottlenecked by the scarcity of difficult, novel training data. We introduce SAND-Math (Synthetic Augmented Novel and Difficult Mathematics problems and solutions), a pipeline that addresses this by first generating high-quality problems from scratch and then systematically elevating their complexity via a new Difficulty Hiking step. We demonstrate the effectiveness of our approach through two key findings. First, augmenting a strong baseline with SAND-Math data significantly boosts performance, outperforming the next-best synthetic dataset by uparrow 17.85 absolute points on the AIME25 benchmark. Second, in a dedicated ablation study, we show our Difficulty Hiking process is highly effective: by increasing average problem difficulty from 5.02 to 5.98, this step lifts AIME25 performance from 46.38\% to 49.23\%. The full generation pipeline, final dataset, and a fine-tuned model form a practical and scalable toolkit for building more capable and efficient mathematical reasoning LLMs. SAND-Math dataset is released here: https://huggingface.co/datasets/amd/SAND-MATH{https://huggingface.co/datasets/amd/SAND-MATH}
PDF32July 29, 2025