ChatPaper.aiChatPaper

ClinAlign: Het Opschalen van Zorgafstemming op Basis van Klinische Voorkeuren

ClinAlign: Scaling Healthcare Alignment from Clinician Preference

February 10, 2026
Auteurs: Shiwei Lyu, Xidong Wang, Lei Liu, Hao Zhu, Chaohe Zhang, Jian Wang, Jinjie Gu, Benyou Wang, Yue Shen
cs.AI

Samenvatting

Hoewel grote taalmodellen (LLM's) expertniveau medische kennis demonstreren, blijft het een uitdaging om hun open-einde uitvoeren af te stemmen op de fijnmazige voorkeuren van clinici. Bestaande methodes vertrouwen vaak op grove doelstellingen of onbetrouwbare geautomatiseerde beoordelaars die zwak verankerd zijn in professionele richtlijnen. Wij stellen een raamwerk in twee fasen voor om deze kloof te dichten. Ten eerste introduceren we HealthRubrics, een dataset met 7.034 door artsen geverifieerde voorkeursvoorbeelden waarin clinici door LLM's opgestelde rubrics verfijnen om aan strenge medische standaarden te voldoen. Ten tweede destilleren we deze rubrics tot HealthPrinciples: 119 breed toepasbare, klinisch onderbouwde principes, geordend per klinische dimensie, waardoor schaalbare supervisie mogelijk wordt die verder gaat dan handmatige annotatie. We gebruiken HealthPrinciples voor (1) offline-afstemming door rubrics te synthetiseren voor ongelabelde queries en (2) als hulpmiddel tijdens inferentie voor begeleide zelfrevisie. Een model met 30B parameters dat tijdens inferentie slechts 3B parameters activeert, getraind met ons raamwerk, behaalt 33.4% op HealthBench-Hard en presteert daarmee beter dan veel grotere modellen, waaronder Deepseek-R1 en o3, wat een resource-efficiënte basislijn voor klinische afstemming vestigt.
English
Although large language models (LLMs) demonstrate expert-level medical knowledge, aligning their open-ended outputs with fine-grained clinician preferences remains challenging. Existing methods often rely on coarse objectives or unreliable automated judges that are weakly grounded in professional guidelines. We propose a two-stage framework to address this gap. First, we introduce HealthRubrics, a dataset of 7,034 physician-verified preference examples in which clinicians refine LLM-drafted rubrics to meet rigorous medical standards. Second, we distill these rubrics into HealthPrinciples: 119 broadly reusable, clinically grounded principles organized by clinical dimensions, enabling scalable supervision beyond manual annotation. We use HealthPrinciples for (1) offline alignment by synthesizing rubrics for unlabeled queries and (2) an inference-time tool for guided self-revision. A 30B parameter model that activates only 3B parameters at inference trained with our framework achieves 33.4% on HealthBench-Hard, outperforming much larger models including Deepseek-R1 and o3, establishing a resource-efficient baseline for clinical alignment.
PDF22March 6, 2026