ChatPaper.aiChatPaper

Baichuan-M2: Масштабирование медицинских возможностей с использованием крупной системы верификации

Baichuan-M2: Scaling Medical Capability with Large Verifier System

September 2, 2025
Авторы: Baichuan-M2 Team, Chengfeng Dou, Chong Liu, Fan Yang, Fei Li, Jiyuan Jia, Mingyang Chen, Qiang Ju, Shuai Wang, Shunya Dang, Tianpeng Li, Xiangrong Zeng, Yijie Zhou, Chenzheng Zhu, Da Pan, Fei Deng, Guangwei Ai, Guosheng Dong, Hongda Zhang, Jinyang Tai, Jixiang Hong, Kai Lu, Linzhuang Sun, Peidong Guo, Qian Ma, Rihui Xin, Shihui Yang, Shusen Zhang, Yichuan Mo, Zheng Liang, Zhishou Zhang, Hengfu Cui, Zuyi Zhu, Xiaochuan Wang
cs.AI

Аннотация

По мере того как крупные языковые модели (LLM) совершенствуют свои способности к ведению диалога и логическому рассуждению, их практическое применение в здравоохранении становится важным направлением исследований. Однако существует заметный разрыв между производительностью медицинских LLM на статических тестах, таких как USMLE, и их полезностью в реальной клинической практике. Это несоответствие возникает из-за того, что традиционные экзамены не учитывают динамический и интерактивный характер медицинских консультаций. Для решения этой проблемы мы представляем новую динамическую систему верификации, которая выходит за рамки статической проверки ответов, создавая масштабную высокоточную интерактивную систему обучения с подкреплением. Наша система включает два ключевых компонента: симулятор пациента, который создает реалистичные клинические сценарии на основе обезличенных медицинских записей, и генератор клинических критериев, который динамически формирует многомерные метрики оценки. На основе этой системы мы разработали Baichuan-M2 — медицинскую модель расширенного рассуждения с 32 миллиардами параметров, обученную с использованием многоэтапной стратегии обучения с подкреплением и улучшенного алгоритма Group Relative Policy Optimization (GRPO). Оцененная на тестовом наборе HealthBench, модель Baichuan-M2 превосходит все другие открытые модели и большинство передовых закрытых аналогов, достигая результата выше 32 на сложном тесте HealthBench Hard — ранее этот показатель был превышен только GPT-5. Наша работа демонстрирует, что надежная динамическая система верификации необходима для согласования возможностей LLM с практическими клиническими задачами, устанавливая новый парето-фронт в компромиссе между производительностью и количеством параметров для внедрения медицинского ИИ.
English
As large language models (LLMs) advance in conversational and reasoning capabilities, their practical application in healthcare has become a critical research focus. However, there is a notable gap between the performance of medical LLMs on static benchmarks such as USMLE and their utility in real-world clinical decision-making. This discrepancy arises because traditional exams fail to capture the dynamic, interactive nature of medical consultations. To address this challenge, we introduce a novel dynamic verification framework that moves beyond static answer verifier, establishing a large-scale, high-fidelity interactive reinforcement learning system. Our framework comprises two key components: a Patient Simulator that creates realistic clinical environments using de-identified medical records, and a Clinical Rubrics Generator that dynamically produces multi-dimensional evaluation metrics. Building on this foundation, we develop Baichuan-M2, a 32B-parameter medical augmented reasoning model trained through a multi-stage reinforcement learning strategy with an improved Group Relative Policy Optimization (GRPO) algorithm. Evaluated on HealthBench, Baichuan-M2 outperforms all other open-source models and most advanced closed-source counterparts, achieving a score above 32 on the challenging HealthBench Hard benchmark-previously exceeded only by GPT-5. Our work demonstrates that robust dynamic verifier system is essential for aligning LLM capabilities with practical clinical applications, establishing a new Pareto front in the performance-parameter trade-off for medical AI deployment.
PDF322September 3, 2025