X-Coder : Faire progresser la programmation compétitive avec des tâches, solutions et tests entièrement synthétiques
X-Coder: Advancing Competitive Programming with Fully Synthetic Tasks, Solutions, and Tests
January 11, 2026
papers.authors: Jie Wu, Haoling Li, Xin Zhang, Jiani Guo, Jane Luo, Steven Liu, Yangyu Huang, Ruihang Chu, Scarlett Li, Yujiu Yang
cs.AI
papers.abstract
La programmation compétitive présente des défis majeurs pour les modèles de langage de code (Code LLMs) en raison de ses exigences intensives en raisonnement et de sa haute complexité logique. Cependant, les Code LLMs actuels dépendent encore largement de données du monde réel, ce qui limite leur évolutivité. Dans cet article, nous explorons une approche entièrement synthétique : entraîner des Code LLMs avec des tâches, des solutions et des cas de test entièrement générés, pour renforcer les modèles de raisonnement sur le code sans dépendre de données réelles. Pour soutenir cette approche, nous utilisons une synthèse basée sur les caractéristiques pour proposer une nouvelle pipeline de synthèse de données appelée SynthSmith. SynthSmith démontre un fort potentiel pour produire des tâches diverses et difficiles, accompagnées de solutions et de tests vérifiés, supportant à la fois le fine-tuning supervisé et l'apprentissage par renforcement. Sur la base des ensembles de données synthétiques SFT et RL proposés, nous introduisons la série de modèles X-Coder, qui atteint un taux de réussite notable de 62,9 avg@8 sur LiveCodeBench v5 et 55,8 sur v6, surpassant DeepCoder-14B-Preview et AReal-boba2-14B malgré seulement 7 milliards de paramètres. Une analyse approfondie révèle que les lois d'échelle s'appliquent à notre ensemble de données synthétiques, et nous explorons quelles dimensions sont les plus efficaces à mettre à l'échelle. Nous fournissons en outre des insights sur l'apprentissage par renforcement centré sur le code et mettons en évidence les facteurs clés qui déterminent la performance grâce à des ablations et analyses détaillées. Nos résultats démontrent que la mise à l'échelle de données synthétiques de haute qualité et l'adoption d'un entraînement par étapes peuvent grandement faire progresser le raisonnement sur le code, tout en réduisant la dépendance aux données de codage du monde réel.
English
Competitive programming presents great challenges for Code LLMs due to its intensive reasoning demands and high logical complexity. However, current Code LLMs still rely heavily on real-world data, which limits their scalability. In this paper, we explore a fully synthetic approach: training Code LLMs with entirely generated tasks, solutions, and test cases, to empower code reasoning models without relying on real-world data. To support this, we leverage feature-based synthesis to propose a novel data synthesis pipeline called SynthSmith. SynthSmith shows strong potential in producing diverse and challenging tasks, along with verified solutions and tests, supporting both supervised fine-tuning and reinforcement learning. Based on the proposed synthetic SFT and RL datasets, we introduce the X-Coder model series, which achieves a notable pass rate of 62.9 avg@8 on LiveCodeBench v5 and 55.8 on v6, outperforming DeepCoder-14B-Preview and AReal-boba2-14B despite having only 7B parameters. In-depth analysis reveals that scaling laws hold on our synthetic dataset, and we explore which dimensions are more effective to scale. We further provide insights into code-centric reinforcement learning and highlight the key factors that shape performance through detailed ablations and analysis. Our findings demonstrate that scaling high-quality synthetic data and adopting staged training can greatly advance code reasoning, while mitigating reliance on real-world coding data.