ChatPaper.aiChatPaper

ClinAlign: Skalierung der medizinischen Ausrichtung basierend auf klinischen Präferenzen

ClinAlign: Scaling Healthcare Alignment from Clinician Preference

February 10, 2026
papers.authors: Shiwei Lyu, Xidong Wang, Lei Liu, Hao Zhu, Chaohe Zhang, Jian Wang, Jinjie Gu, Benyou Wang, Yue Shen
cs.AI

papers.abstract

Obwohl große Sprachmodelle (LLMs) über Expertenwissen im medizinischen Bereich verfügen, bleibt die Abstimmung ihrer offenen Antworten auf die feingranularen Präferenzen von Klinikern eine Herausforderung. Bisherige Methoden stützen sich oft auf grobe Zielvorgaben oder unzuverlässige automatisierte Bewertungssysteme, die nur schwach in professionellen Leitlinien verankert sind. Wir schlagen einen zweistufigen Rahmen vor, um diese Lücke zu schließen. Erstens führen wir HealthRubrics ein, einen Datensatz mit 7.034 von Ärzten verifizierten Präferenzbeispielen, in denen Kliniker von LLMs erstellte Bewertungsraster verfeinern, um strenge medizinische Standards zu erfüllen. Zweitens destillieren wir diese Raster zu HealthPrinciples: 119 breit wiederverwendbare, klinisch fundierte Prinzipien, die nach klinischen Dimensionen organisiert sind und eine skalierbare Überwachung über manuelle Annotationen hinaus ermöglichen. Wir nutzen HealthPrinciples für (1) Offline-Alignment durch die Synthese von Bewertungsrastern für ungelabelte Anfragen und (2) als Inferenzzeit-Werkzeug für geführtes Selbst-Revision. Ein Modell mit 30B Parametern, das zur Inferenzzeit nur 3B Parameter aktiviert und mit unserem Framework trainiert wurde, erreicht 33,4 % auf HealthBench-Hard und übertrifft damit deutlich größere Modelle wie Deepseek-R1 und o3, wodurch eine ressourceneffiziente Baseline für die klinische Abstimmung etabliert wird.
English
Although large language models (LLMs) demonstrate expert-level medical knowledge, aligning their open-ended outputs with fine-grained clinician preferences remains challenging. Existing methods often rely on coarse objectives or unreliable automated judges that are weakly grounded in professional guidelines. We propose a two-stage framework to address this gap. First, we introduce HealthRubrics, a dataset of 7,034 physician-verified preference examples in which clinicians refine LLM-drafted rubrics to meet rigorous medical standards. Second, we distill these rubrics into HealthPrinciples: 119 broadly reusable, clinically grounded principles organized by clinical dimensions, enabling scalable supervision beyond manual annotation. We use HealthPrinciples for (1) offline alignment by synthesizing rubrics for unlabeled queries and (2) an inference-time tool for guided self-revision. A 30B parameter model that activates only 3B parameters at inference trained with our framework achieves 33.4% on HealthBench-Hard, outperforming much larger models including Deepseek-R1 and o3, establishing a resource-efficient baseline for clinical alignment.
PDF21February 19, 2026