AM-Thinking-v1 : Pousser les Frontières du Raisonnement à l'Échelle de 32 Milliards
AM-Thinking-v1: Advancing the Frontier of Reasoning at 32B Scale
May 13, 2025
papers.authors: Yunjie Ji, Xiaoyu Tian, Sitong Zhao, Haotian Wang, Shuaiting Chen, Yiping Peng, Han Zhao, Xiangang Li
cs.AI
papers.abstract
Nous présentons AM-Thinking-v1, un modèle de langage dense de 32 milliards de paramètres qui repousse les frontières du raisonnement, incarnant l'esprit collaboratif de l'innovation open source. Surpassant DeepSeek-R1 et rivalisant avec les meilleurs modèles Mixture-of-Experts (MoE) tels que Qwen3-235B-A22B et Seed1.5-Thinking, AM-Thinking-v1 obtient des scores impressionnants de 85,3 sur AIME 2024, 74,4 sur AIME 2025 et 70,3 sur LiveCodeBench, démontrant des capacités mathématiques et de programmation de pointe parmi les modèles open source de taille similaire.
Entièrement construit à partir du modèle de base open source Qwen2.5-32B et de requêtes publiquement disponibles, AM-Thinking-v1 s'appuie sur un pipeline de post-entraînement méticuleusement conçu - combinant un ajustement fin supervisé et un apprentissage par renforcement - pour offrir des capacités de raisonnement exceptionnelles. Ce travail démontre que la communauté open source peut atteindre des performances élevées à l'échelle des 32 milliards de paramètres, un point optimal pour le déploiement et l'ajustement fin. En trouvant un équilibre entre des performances de premier ordre et une utilité pratique, nous espérons qu'AM-Thinking-v1 inspirera de nouveaux efforts collaboratifs pour exploiter des modèles de taille intermédiaire, repoussant les limites du raisonnement tout en plaçant l'accessibilité au cœur de l'innovation. Nous avons rendu notre modèle open source sur https://huggingface.co/a-m-team/AM-Thinking-v1{Hugging Face}.
English
We present AM-Thinking-v1, a 32B dense language model that advances the
frontier of reasoning, embodying the collaborative spirit of open-source
innovation. Outperforming DeepSeek-R1 and rivaling leading Mixture-of-Experts
(MoE) models like Qwen3-235B-A22B and Seed1.5-Thinking, AM-Thinking-v1 achieves
impressive scores of 85.3 on AIME 2024, 74.4 on AIME 2025, and 70.3 on
LiveCodeBench, showcasing state-of-the-art mathematical and coding capabilities
among open-source models of similar scale.
Built entirely from the open-source Qwen2.5-32B base model and publicly
available queries, AM-Thinking-v1 leverages a meticulously crafted
post-training pipeline - combining supervised fine-tuning and reinforcement
learning - to deliver exceptional reasoning capabilities. This work
demonstrates that the open-source community can achieve high performance at the
32B scale, a practical sweet spot for deployment and fine-tuning. By striking a
balance between top-tier performance and real-world usability, we hope
AM-Thinking-v1 inspires further collaborative efforts to harness mid-scale
models, pushing reasoning boundaries while keeping accessibility at the core of
innovation. We have open-sourced our model on
https://huggingface.co/a-m-team/AM-Thinking-v1{Hugging Face}.