Baichuan-M2: Масштабирование медицинских возможностей с использованием крупной системы верификации
Baichuan-M2: Scaling Medical Capability with Large Verifier System
September 2, 2025
Авторы: Baichuan-M2 Team, Chengfeng Dou, Chong Liu, Fan Yang, Fei Li, Jiyuan Jia, Mingyang Chen, Qiang Ju, Shuai Wang, Shunya Dang, Tianpeng Li, Xiangrong Zeng, Yijie Zhou, Chenzheng Zhu, Da Pan, Fei Deng, Guangwei Ai, Guosheng Dong, Hongda Zhang, Jinyang Tai, Jixiang Hong, Kai Lu, Linzhuang Sun, Peidong Guo, Qian Ma, Rihui Xin, Shihui Yang, Shusen Zhang, Yichuan Mo, Zheng Liang, Zhishou Zhang, Hengfu Cui, Zuyi Zhu, Xiaochuan Wang
cs.AI
Аннотация
По мере того как крупные языковые модели (LLM) совершенствуют свои способности к ведению диалога и логическому рассуждению, их практическое применение в здравоохранении становится важным направлением исследований. Однако существует заметный разрыв между производительностью медицинских LLM на статических тестах, таких как USMLE, и их полезностью в реальной клинической практике. Это несоответствие возникает из-за того, что традиционные экзамены не учитывают динамический и интерактивный характер медицинских консультаций. Для решения этой проблемы мы представляем новую динамическую систему верификации, которая выходит за рамки статической проверки ответов, создавая масштабную высокоточную интерактивную систему обучения с подкреплением. Наша система включает два ключевых компонента: симулятор пациента, который создает реалистичные клинические сценарии на основе обезличенных медицинских записей, и генератор клинических критериев, который динамически формирует многомерные метрики оценки. На основе этой системы мы разработали Baichuan-M2 — медицинскую модель расширенного рассуждения с 32 миллиардами параметров, обученную с использованием многоэтапной стратегии обучения с подкреплением и улучшенного алгоритма Group Relative Policy Optimization (GRPO). Оцененная на тестовом наборе HealthBench, модель Baichuan-M2 превосходит все другие открытые модели и большинство передовых закрытых аналогов, достигая результата выше 32 на сложном тесте HealthBench Hard — ранее этот показатель был превышен только GPT-5. Наша работа демонстрирует, что надежная динамическая система верификации необходима для согласования возможностей LLM с практическими клиническими задачами, устанавливая новый парето-фронт в компромиссе между производительностью и количеством параметров для внедрения медицинского ИИ.
English
As large language models (LLMs) advance in conversational and reasoning
capabilities, their practical application in healthcare has become a critical
research focus. However, there is a notable gap between the performance of
medical LLMs on static benchmarks such as USMLE and their utility in real-world
clinical decision-making. This discrepancy arises because traditional exams
fail to capture the dynamic, interactive nature of medical consultations. To
address this challenge, we introduce a novel dynamic verification framework
that moves beyond static answer verifier, establishing a large-scale,
high-fidelity interactive reinforcement learning system. Our framework
comprises two key components: a Patient Simulator that creates realistic
clinical environments using de-identified medical records, and a Clinical
Rubrics Generator that dynamically produces multi-dimensional evaluation
metrics. Building on this foundation, we develop Baichuan-M2, a 32B-parameter
medical augmented reasoning model trained through a multi-stage reinforcement
learning strategy with an improved Group Relative Policy Optimization (GRPO)
algorithm. Evaluated on HealthBench, Baichuan-M2 outperforms all other
open-source models and most advanced closed-source counterparts, achieving a
score above 32 on the challenging HealthBench Hard benchmark-previously
exceeded only by GPT-5. Our work demonstrates that robust dynamic verifier
system is essential for aligning LLM capabilities with practical clinical
applications, establishing a new Pareto front in the performance-parameter
trade-off for medical AI deployment.