Das Persona-Paradoxon: Medizinische Personas als Verhaltens-Priors in klinischen Sprachmodellen
The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models
January 8, 2026
papers.authors: Tassallah Abdullahi, Shrestha Ghosh, Hamish S Fraser, Daniel León Tramontini, Adeel Abbasi, Ghada Bourjeily, Carsten Eickhoff, Ritambhara Singh
cs.AI
papers.abstract
Die Persona-Konditionierung kann als behaviorale A-priori-Information für große Sprachmodelle (LLMs) betrachtet werden und wird oft pauschal als Methode zur Vermittlung von Expertise und Verbesserung der Sicherheit angenommen. Ihre Auswirkungen auf klinische Entscheidungen mit hohen Konsequenzen sind jedoch kaum charakterisiert. Wir evaluieren systematisch die persona-basierte Steuerung in klinischen LLMs und untersuchen, wie Berufsrollen (z.B. Notarzt, Pflegekraft) und Interaktionsstile (kühn vs. vorsichtig) das Verhalten über verschiedene Modelle und medizinische Aufgaben hinweg beeinflussen. Wir bewerten die Leistung bei klinischer Triage und Patientensicherheits-Aufgaben mittels multidimensionaler Evaluationen, die Aufgaben-Genauigkeit, Kalibrierung und sicherheitsrelevantes Risikoverhalten erfassen. Wir finden systematische, kontextabhängige und nicht-monotone Effekte: Medizinische Personas verbessern die Leistung in kritischen Versorgungsaufgaben mit Gewinnen von bis zu ca. +20 % bei Genauigkeit und Kalibrierung, verschlechtern jedoch die Leistung in der primärärztlichen Versorgung in ähnlichem Maße. Der Interaktionsstil moduliert die Risikoneigung und -sensitivität, jedoch in stark modellabhängiger Weise. Während aggregierte LLM-Judge-Rankings medizinische Personas in sicherheitskritischen Fällen bevorzugen, zeigten menschliche Kliniker eine moderate Übereinstimmung bezüglich Sicherheitskonformität (durchschnittliches Cohens κ = 0,43), äußerten jedoch in 95,9 % ihrer Antworten zur Urteilsqualität geringes Vertrauen. Unsere Arbeit zeigt, dass Personas als behaviorale Priors fungieren, die kontextabhängige Zielkonflikte einführen, anstatt Sicherheit oder Expertise zu garantieren. Der Code ist verfügbar unter https://github.com/rsinghlab/Persona_Paradox.
English
Persona conditioning can be viewed as a behavioral prior for large language models (LLMs) and is often assumed to confer expertise and improve safety in a monotonic manner. However, its effects on high-stakes clinical decision-making remain poorly characterized. We systematically evaluate persona-based control in clinical LLMs, examining how professional roles (e.g., Emergency Department physician, nurse) and interaction styles (bold vs.\ cautious) influence behavior across models and medical tasks. We assess performance on clinical triage and patient-safety tasks using multidimensional evaluations that capture task accuracy, calibration, and safety-relevant risk behavior. We find systematic, context-dependent, and non-monotonic effects: Medical personas improve performance in critical care tasks, yielding gains of up to sim+20% in accuracy and calibration, but degrade performance in primary-care settings by comparable margins. Interaction style modulates risk propensity and sensitivity, but it's highly model-dependent. While aggregated LLM-judge rankings favor medical over non-medical personas in safety-critical cases, we found that human clinicians show moderate agreement on safety compliance (average Cohen's κ= 0.43) but indicate a low confidence in 95.9\% of their responses on reasoning quality. Our work shows that personas function as behavioral priors that introduce context-dependent trade-offs rather than guarantees of safety or expertise. The code is available at https://github.com/rsinghlab/Persona\_Paradox.