ChatPaper.aiChatPaper

Baichuan-M2: Potenziamento delle capacità mediche con un ampio sistema di verifica

Baichuan-M2: Scaling Medical Capability with Large Verifier System

September 2, 2025
Autori: Baichuan-M2 Team, Chengfeng Dou, Chong Liu, Fan Yang, Fei Li, Jiyuan Jia, Mingyang Chen, Qiang Ju, Shuai Wang, Shunya Dang, Tianpeng Li, Xiangrong Zeng, Yijie Zhou, Chenzheng Zhu, Da Pan, Fei Deng, Guangwei Ai, Guosheng Dong, Hongda Zhang, Jinyang Tai, Jixiang Hong, Kai Lu, Linzhuang Sun, Peidong Guo, Qian Ma, Rihui Xin, Shihui Yang, Shusen Zhang, Yichuan Mo, Zheng Liang, Zhishou Zhang, Hengfu Cui, Zuyi Zhu, Xiaochuan Wang
cs.AI

Abstract

Con l'avanzamento delle capacità conversazionali e di ragionamento dei grandi modelli linguistici (LLM), la loro applicazione pratica nel settore sanitario è diventata un focus di ricerca cruciale. Tuttavia, esiste un divario significativo tra le prestazioni dei LLM medici su benchmark statici come l'USMLE e la loro utilità nel processo decisionale clinico reale. Questa discrepanza deriva dal fatto che gli esami tradizionali non riescono a catturare la natura dinamica e interattiva delle consultazioni mediche. Per affrontare questa sfida, introduciamo un nuovo framework di verifica dinamica che va oltre il semplice verificatore di risposte statiche, stabilendo un sistema di apprendimento per rinforzo interattivo su larga scala e ad alta fedeltà. Il nostro framework comprende due componenti chiave: un Simulatore di Pazienti che crea ambienti clinici realistici utilizzando cartelle cliniche de-identificate, e un Generatore di Griglie Cliniche che produce dinamicamente metriche di valutazione multidimensionali. Sulla base di queste fondamenta, sviluppiamo Baichuan-M2, un modello di ragionamento aumentato medico da 32 miliardi di parametri, addestrato attraverso una strategia di apprendimento per rinforzo multi-stadio con un algoritmo migliorato di Ottimizzazione Relativa di Gruppo (GRPO). Valutato su HealthBench, Baichuan-M2 supera tutti gli altri modelli open-source e la maggior parte delle controparti closed-source più avanzate, raggiungendo un punteggio superiore a 32 sul benchmark impegnativo HealthBench Hard, precedentemente superato solo da GPT-5. Il nostro lavoro dimostra che un robusto sistema di verifica dinamica è essenziale per allineare le capacità dei LLM con le applicazioni cliniche pratiche, stabilendo un nuovo fronte di Pareto nel compromesso prestazioni-parametri per il dispiegamento dell'IA medica.
English
As large language models (LLMs) advance in conversational and reasoning capabilities, their practical application in healthcare has become a critical research focus. However, there is a notable gap between the performance of medical LLMs on static benchmarks such as USMLE and their utility in real-world clinical decision-making. This discrepancy arises because traditional exams fail to capture the dynamic, interactive nature of medical consultations. To address this challenge, we introduce a novel dynamic verification framework that moves beyond static answer verifier, establishing a large-scale, high-fidelity interactive reinforcement learning system. Our framework comprises two key components: a Patient Simulator that creates realistic clinical environments using de-identified medical records, and a Clinical Rubrics Generator that dynamically produces multi-dimensional evaluation metrics. Building on this foundation, we develop Baichuan-M2, a 32B-parameter medical augmented reasoning model trained through a multi-stage reinforcement learning strategy with an improved Group Relative Policy Optimization (GRPO) algorithm. Evaluated on HealthBench, Baichuan-M2 outperforms all other open-source models and most advanced closed-source counterparts, achieving a score above 32 on the challenging HealthBench Hard benchmark-previously exceeded only by GPT-5. Our work demonstrates that robust dynamic verifier system is essential for aligning LLM capabilities with practical clinical applications, establishing a new Pareto front in the performance-parameter trade-off for medical AI deployment.
PDF402September 3, 2025