ClinAlign: Escalando la Alineación Sanitaria a partir de la Preferencia Clínica
ClinAlign: Scaling Healthcare Alignment from Clinician Preference
February 10, 2026
Autores: Shiwei Lyu, Xidong Wang, Lei Liu, Hao Zhu, Chaohe Zhang, Jian Wang, Jinjie Gu, Benyou Wang, Yue Shen
cs.AI
Resumen
Aunque los grandes modelos de lenguaje (LLM) demuestran conocimientos médicos de nivel experto, alinear sus respuestas de código abierto con las preferencias detalladas de los clínicos sigue siendo un desafío. Los métodos existentes a menudo dependen de objetivos generales o de evaluadores automáticos poco fiables que tienen una base débil en las directrices profesionales. Proponemos un marco de trabajo de dos etapas para abordar esta brecha. Primero, presentamos HealthRubrics, un conjunto de datos de 7,034 ejemplos de preferencias verificados por médicos, en los que los clínicos refinan rúbricas redactadas por LLM para cumplir con rigurosos estándares médicos. Segundo, destilamos estas rúbricas en HealthPrinciples: 119 principios ampliamente reutilizables y basados en la clínica, organizados por dimensiones clínicas, lo que permite una supervisión escalable más allá de la anotación manual. Utilizamos HealthPrinciples para (1) la alineación offline mediante la síntesis de rúbricas para consultas no etiquetadas y (2) como una herramienta en tiempo de inferencia para una autorevisión guiada. Un modelo de 30B de parámetros que activa solo 3B de parámetros durante la inferencia, entrenado con nuestro marco, alcanza un 33.4% en HealthBench-Hard, superando a modelos mucho más grandes como Deepseek-R1 y o3, estableciendo así un punto de referencia eficiente en recursos para la alineación clínica.
English
Although large language models (LLMs) demonstrate expert-level medical knowledge, aligning their open-ended outputs with fine-grained clinician preferences remains challenging. Existing methods often rely on coarse objectives or unreliable automated judges that are weakly grounded in professional guidelines. We propose a two-stage framework to address this gap. First, we introduce HealthRubrics, a dataset of 7,034 physician-verified preference examples in which clinicians refine LLM-drafted rubrics to meet rigorous medical standards. Second, we distill these rubrics into HealthPrinciples: 119 broadly reusable, clinically grounded principles organized by clinical dimensions, enabling scalable supervision beyond manual annotation. We use HealthPrinciples for (1) offline alignment by synthesizing rubrics for unlabeled queries and (2) an inference-time tool for guided self-revision. A 30B parameter model that activates only 3B parameters at inference trained with our framework achieves 33.4% on HealthBench-Hard, outperforming much larger models including Deepseek-R1 and o3, establishing a resource-efficient baseline for clinical alignment.