ChatPaper.aiChatPaper

ClinAlign: Масштабирование согласования в здравоохранении на основе предпочтений клиницистов

ClinAlign: Scaling Healthcare Alignment from Clinician Preference

February 10, 2026
Авторы: Shiwei Lyu, Xidong Wang, Lei Liu, Hao Zhu, Chaohe Zhang, Jian Wang, Jinjie Gu, Benyou Wang, Yue Shen
cs.AI

Аннотация

Хотя большие языковые модели (LLМ) демонстрируют экспертные медицинские знания, согласование их открытых ответов с детализированными предпочтениями клиницистов остается сложной задачей. Существующие методы часто опираются на грубые целевые показатели или ненадежные автоматические оценки, слабо основанные на профессиональных рекомендациях. Мы предлагаем двухэтапную структуру для решения этой проблемы. Во-первых, мы представляем HealthRubrics — набор данных из 7034 проверенных врачами примеров предпочтений, в которых клиницисты дорабатывают рубрики, составленные LLМ, для соответствия строгим медицинским стандартам. Во-вторых, мы дистиллируем эти рубрики в HealthPrinciples: 119 широко применимых, клинически обоснованных принципов, организованных по клиническим измерениям, что позволяет масштабировать контроль за пределами ручной разметки. Мы используем HealthPrinciples для (1) офлайн-выравнивания путем синтеза рубрик для немаркированных запросов и (2) инструмента на этапе вывода для управляемой самокоррекции. Модель с 30 млрд параметров, которая активирует только 3 млрд параметров на этапе вывода и обученная с использованием нашей структуры, достигает показателя 33.4% на HealthBench-Hard, превосходя значительно более крупные модели, включая Deepseek-R1 и o3, и устанавливая ресурсоэффективный базовый уровень для клинического согласования.
English
Although large language models (LLMs) demonstrate expert-level medical knowledge, aligning their open-ended outputs with fine-grained clinician preferences remains challenging. Existing methods often rely on coarse objectives or unreliable automated judges that are weakly grounded in professional guidelines. We propose a two-stage framework to address this gap. First, we introduce HealthRubrics, a dataset of 7,034 physician-verified preference examples in which clinicians refine LLM-drafted rubrics to meet rigorous medical standards. Second, we distill these rubrics into HealthPrinciples: 119 broadly reusable, clinically grounded principles organized by clinical dimensions, enabling scalable supervision beyond manual annotation. We use HealthPrinciples for (1) offline alignment by synthesizing rubrics for unlabeled queries and (2) an inference-time tool for guided self-revision. A 30B parameter model that activates only 3B parameters at inference trained with our framework achieves 33.4% on HealthBench-Hard, outperforming much larger models including Deepseek-R1 and o3, establishing a resource-efficient baseline for clinical alignment.
PDF21February 19, 2026