ChatPaper.aiChatPaper

X-Coder: Far progredire la programmazione competitiva con attività, soluzioni e test completamente sintetici

X-Coder: Advancing Competitive Programming with Fully Synthetic Tasks, Solutions, and Tests

January 11, 2026
Autori: Jie Wu, Haoling Li, Xin Zhang, Jiani Guo, Jane Luo, Steven Liu, Yangyu Huang, Ruihang Chu, Scarlett Li, Yujiu Yang
cs.AI

Abstract

La programmazione competitiva presenta grandi sfide per i Code LLM a causa delle sue elevate esigenze di ragionamento e dell'alta complessità logica. Tuttavia, gli attuali Code LLM dipendono ancora fortemente da dati del mondo reale, il che ne limita la scalabilità. In questo articolo, esploriamo un approccio completamente sintetico: addestrare Code LLM con task, soluzioni e casi di test interamente generati, per potenziare i modelli di ragionamento sul codice senza fare affidamento su dati reali. A supporto di ciò, sfruttiamo la sintesi basata su caratteristiche per proporre una nuova pipeline di sintesi dei dati chiamata SynthSmith. SynthSmith mostra un forte potenziale nel produrre task diversificati e impegnativi, insieme a soluzioni e test verificati, supportando sia l'addestramento supervisionato (SFT) che l'apprendimento per rinforzo (RL). Sulla base dei dataset sintetici SFT e RL proposti, introduciamo la serie di modelli X-Coder, che raggiunge un tasso di successo notevole del 62.9 avg@8 su LiveCodeBench v5 e del 55.8 su v6, superando DeepCoder-14B-Preview e AReal-boba2-14B nonostante abbia solo 7 miliardi di parametri. Un'analisi approfondita rivela che le leggi di scala sono valide sul nostro dataset sintetico, ed esploriamo quali dimensioni siano più efficaci da scalare. Forniamo ulteriori insight sull'apprendimento per rinforzo centrato sul codice e evidenziamo i fattori chiave che determinano le prestazioni attraverso ablation study e analisi dettagliate. I nostri risultati dimostrano che scalare dati sintetici di alta qualità e adottare un addestramento per fasi può far avanzare notevolmente il ragionamento sul codice, mitigando al contempo la dipendenza dai dati di codifica del mondo reale.
English
Competitive programming presents great challenges for Code LLMs due to its intensive reasoning demands and high logical complexity. However, current Code LLMs still rely heavily on real-world data, which limits their scalability. In this paper, we explore a fully synthetic approach: training Code LLMs with entirely generated tasks, solutions, and test cases, to empower code reasoning models without relying on real-world data. To support this, we leverage feature-based synthesis to propose a novel data synthesis pipeline called SynthSmith. SynthSmith shows strong potential in producing diverse and challenging tasks, along with verified solutions and tests, supporting both supervised fine-tuning and reinforcement learning. Based on the proposed synthetic SFT and RL datasets, we introduce the X-Coder model series, which achieves a notable pass rate of 62.9 avg@8 on LiveCodeBench v5 and 55.8 on v6, outperforming DeepCoder-14B-Preview and AReal-boba2-14B despite having only 7B parameters. In-depth analysis reveals that scaling laws hold on our synthetic dataset, and we explore which dimensions are more effective to scale. We further provide insights into code-centric reinforcement learning and highlight the key factors that shape performance through detailed ablations and analysis. Our findings demonstrate that scaling high-quality synthetic data and adopting staged training can greatly advance code reasoning, while mitigating reliance on real-world coding data.
PDF453March 16, 2026