AM-Thinking-v1: Расширение границ логического мышления на масштабе 32 миллиардов
AM-Thinking-v1: Advancing the Frontier of Reasoning at 32B Scale
May 13, 2025
Авторы: Yunjie Ji, Xiaoyu Tian, Sitong Zhao, Haotian Wang, Shuaiting Chen, Yiping Peng, Han Zhao, Xiangang Li
cs.AI
Аннотация
Мы представляем AM-Thinking-v1, плотную языковую модель объемом 32 миллиарда параметров, которая продвигает границы рассуждений, воплощая дух открытого сотрудничества и инноваций. Превосходя DeepSeek-R1 и конкурируя с ведущими моделями типа Mixture-of-Experts (MoE), такими как Qwen3-235B-A22B и Seed1.5-Thinking, AM-Thinking-v1 демонстрирует впечатляющие результаты: 85,3 на AIME 2024, 74,4 на AIME 2025 и 70,3 на LiveCodeBench, что подтверждает передовые математические и кодировочные способности среди моделей с открытым исходным кодом аналогичного масштаба.
Построенная полностью на базе модели Qwen2.5-32B с открытым исходным кодом и общедоступных запросов, AM-Thinking-v1 использует тщательно разработанный посттренировочный конвейер, сочетающий контролируемую тонкую настройку и обучение с подкреплением, чтобы обеспечить исключительные способности к рассуждению. Эта работа демонстрирует, что сообщество с открытым исходным кодом может достичь высокой производительности на уровне 32 миллиардов параметров, что является оптимальным балансом для развертывания и тонкой настройки. Сочетая передовую производительность с практической применимостью, мы надеемся, что AM-Thinking-v1 вдохновит дальнейшие совместные усилия по использованию моделей среднего масштаба, расширяя границы рассуждений, сохраняя доступность в основе инноваций. Мы открыли исходный код нашей модели на платформе Hugging Face: https://huggingface.co/a-m-team/AM-Thinking-v1.
English
We present AM-Thinking-v1, a 32B dense language model that advances the
frontier of reasoning, embodying the collaborative spirit of open-source
innovation. Outperforming DeepSeek-R1 and rivaling leading Mixture-of-Experts
(MoE) models like Qwen3-235B-A22B and Seed1.5-Thinking, AM-Thinking-v1 achieves
impressive scores of 85.3 on AIME 2024, 74.4 on AIME 2025, and 70.3 on
LiveCodeBench, showcasing state-of-the-art mathematical and coding capabilities
among open-source models of similar scale.
Built entirely from the open-source Qwen2.5-32B base model and publicly
available queries, AM-Thinking-v1 leverages a meticulously crafted
post-training pipeline - combining supervised fine-tuning and reinforcement
learning - to deliver exceptional reasoning capabilities. This work
demonstrates that the open-source community can achieve high performance at the
32B scale, a practical sweet spot for deployment and fine-tuning. By striking a
balance between top-tier performance and real-world usability, we hope
AM-Thinking-v1 inspires further collaborative efforts to harness mid-scale
models, pushing reasoning boundaries while keeping accessibility at the core of
innovation. We have open-sourced our model on
https://huggingface.co/a-m-team/AM-Thinking-v1{Hugging Face}.