AM-Thinking-v1: 32B 규모에서의 추론 기술 선진화
AM-Thinking-v1: Advancing the Frontier of Reasoning at 32B Scale
May 13, 2025
저자: Yunjie Ji, Xiaoyu Tian, Sitong Zhao, Haotian Wang, Shuaiting Chen, Yiping Peng, Han Zhao, Xiangang Li
cs.AI
초록
우리는 추론의 최전선을 발전시키며 오픈소스 혁신의 협력 정신을 구현한 32B 밀집 언어 모델인 AM-Thinking-v1을 소개한다. AM-Thinking-v1은 DeepSeek-R1을 능가하고 Qwen3-235B-A22B 및 Seed1.5-Thinking과 같은 선도적인 Mixture-of-Experts(MoE) 모델과 경쟁하며, AIME 2024에서 85.3점, AIME 2025에서 74.4점, LiveCodeBench에서 70.3점의 인상적인 성적을 달성하여 유사 규모의 오픈소스 모델 중에서도 최첨단 수학 및 코딩 능력을 보여준다.
AM-Thinking-v1은 전적으로 오픈소스인 Qwen2.5-32B 기본 모델과 공개적으로 이용 가능한 쿼리를 기반으로 구축되었으며, 지도 미세 조정과 강화 학습을 결합한 세심하게 설계된 사후 학습 파이프라인을 활용하여 탁월한 추론 능력을 제공한다. 이 작업은 오픈소스 커뮤니티가 배포 및 미세 조정에 있어 실용적인 스위트 스팟인 32B 규모에서도 높은 성능을 달성할 수 있음을 입증한다. 최상위 성능과 실제 사용 가능성 사이의 균형을 맞춤으로써, 우리는 AM-Thinking-v1이 중간 규모 모델을 활용하여 추론의 한계를 넓히면서도 접근성을 혁신의 핵심으로 유지하는 추가적인 협력 노력을 고무하기를 바란다. 우리는 이 모델을 https://huggingface.co/a-m-team/AM-Thinking-v1{Hugging Face}에 오픈소스로 공개하였다.
English
We present AM-Thinking-v1, a 32B dense language model that advances the
frontier of reasoning, embodying the collaborative spirit of open-source
innovation. Outperforming DeepSeek-R1 and rivaling leading Mixture-of-Experts
(MoE) models like Qwen3-235B-A22B and Seed1.5-Thinking, AM-Thinking-v1 achieves
impressive scores of 85.3 on AIME 2024, 74.4 on AIME 2025, and 70.3 on
LiveCodeBench, showcasing state-of-the-art mathematical and coding capabilities
among open-source models of similar scale.
Built entirely from the open-source Qwen2.5-32B base model and publicly
available queries, AM-Thinking-v1 leverages a meticulously crafted
post-training pipeline - combining supervised fine-tuning and reinforcement
learning - to deliver exceptional reasoning capabilities. This work
demonstrates that the open-source community can achieve high performance at the
32B scale, a practical sweet spot for deployment and fine-tuning. By striking a
balance between top-tier performance and real-world usability, we hope
AM-Thinking-v1 inspires further collaborative efforts to harness mid-scale
models, pushing reasoning boundaries while keeping accessibility at the core of
innovation. We have open-sourced our model on
https://huggingface.co/a-m-team/AM-Thinking-v1{Hugging Face}.Summary
AI-Generated Summary