La Paradoja del Personaje: Personajes Médicos como Priors Conductuales en Modelos de Lenguaje Clínico
The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models
January 8, 2026
Autores: Tassallah Abdullahi, Shrestha Ghosh, Hamish S Fraser, Daniel León Tramontini, Adeel Abbasi, Ghada Bourjeily, Carsten Eickhoff, Ritambhara Singh
cs.AI
Resumen
El condicionamiento de personalidad puede considerarse un previo conductual para los modelos de lenguaje grande (LLM) y a menudo se asume que confiere experiencia y mejora la seguridad de manera monótona. Sin embargo, sus efectos en la toma de decisiones clínicas de alto riesgo permanecen escasamente caracterizados. Evaluamos sistemáticamente el control basado en personalidades en LLM clínicos, examinando cómo los roles profesionales (por ejemplo, médico de Urgencias, enfermero/a) y los estilos de interacción (audaz vs. cauteloso) influyen en el comportamiento entre modelos y tareas médicas. Evaluamos el rendimiento en tareas de triaje clínico y seguridad del paciente utilizando evaluaciones multidimensionales que capturan la precisión de la tarea, la calibración y el comportamiento de riesgo relevante para la seguridad. Encontramos efectos sistemáticos, dependientes del contexto y no monótonos: las personalidades médicas mejoran el rendimiento en tareas de cuidados críticos, produciendo ganancias de hasta ~+20% en precisión y calibración, pero degradan el rendimiento en entornos de atención primaria por márgenes comparables. El estilo de interacción modula la propensión y sensibilidad al riesgo, pero es altamente dependiente del modelo. Si bien las clasificaciones agregadas de jueces-LLM favorecen a las personalidades médicas sobre las no médicas en casos críticos de seguridad, encontramos que los médicos humanos muestran una concordancia moderada en el cumplimiento de seguridad (κ de Cohen promedio = 0.43) pero indican una baja confianza en el 95.9% de sus respuestas sobre la calidad del razonamiento. Nuestro trabajo demuestra que las personalidades funcionan como previos conductuales que introducen compensaciones dependientes del contexto en lugar de garantías de seguridad o experiencia. El código está disponible en https://github.com/rsinghlab/Persona_Paradox.
English
Persona conditioning can be viewed as a behavioral prior for large language models (LLMs) and is often assumed to confer expertise and improve safety in a monotonic manner. However, its effects on high-stakes clinical decision-making remain poorly characterized. We systematically evaluate persona-based control in clinical LLMs, examining how professional roles (e.g., Emergency Department physician, nurse) and interaction styles (bold vs.\ cautious) influence behavior across models and medical tasks. We assess performance on clinical triage and patient-safety tasks using multidimensional evaluations that capture task accuracy, calibration, and safety-relevant risk behavior. We find systematic, context-dependent, and non-monotonic effects: Medical personas improve performance in critical care tasks, yielding gains of up to sim+20% in accuracy and calibration, but degrade performance in primary-care settings by comparable margins. Interaction style modulates risk propensity and sensitivity, but it's highly model-dependent. While aggregated LLM-judge rankings favor medical over non-medical personas in safety-critical cases, we found that human clinicians show moderate agreement on safety compliance (average Cohen's κ= 0.43) but indicate a low confidence in 95.9\% of their responses on reasoning quality. Our work shows that personas function as behavioral priors that introduce context-dependent trade-offs rather than guarantees of safety or expertise. The code is available at https://github.com/rsinghlab/Persona\_Paradox.