Переосмысление клинического диалога: агентные парадигмы для коммуникации в здравоохранении на основе больших языковых моделей
Reinventing Clinical Dialogue: Agentic Paradigms for LLM Enabled Healthcare Communication
December 1, 2025
Авторы: Xiaoquan Zhi, Hongke Zhao, Likang Wu, Chuang Zhao, Hengshu Zhu
cs.AI
Аннотация
Клинический диалог представляет собой сложную дуальность, требующую как эмпатической беглости естественной беседы, так и строгой точности доказательной медицины. Хотя большие языковые модели обладают беспрецедентными лингвистическими возможностями, их архитектурная зависимость от реактивной и несохраняющей состояние обработки часто отдает предпочтение вероятностной правдоподобности, а не фактической достоверности. Это структурное ограничение инициировало смену парадигмы в медицинском ИИ: от генеративного прогнозирования текста к агентной автономии, где модель функционирует как центральный механизм рассуждений, способный к обдуманному планированию и устойчивой памяти. Выходя за рамки существующих обзоров, которые в основном каталогизируют прикладные применения, данное исследование предлагает анализ на основе первых принципов когнитивной архитектуры, лежащей в основе этого сдвига. Мы вводим новую таксономию, структурированную по ортогональным осям источника знаний и цели агентности, чтобы разграничить происхождение клинических знаний и операционный охват системы. Эта структура позволяет провести систематический анализ внутренних компромиссов между креативностью и надежностью, классифицируя методы на четыре архетипа: Клиницисты в латентном пространстве, Эмерджентные планировщики, Обоснованные синтезаторы и Верифицируемые автоматизаторы рабочих процессов. Для каждой парадигмы мы деконструируем техническую реализацию во всей когнитивной цепочке, включая стратегическое планирование, управление памятью, выполнение действий, коллаборацию и эволюцию, чтобы раскрыть, как различные архитектурные выборы балансируют напряжение между автономией и безопасностью.
English
Clinical dialogue represents a complex duality requiring both the empathetic fluency of natural conversation and the rigorous precision of evidence-based medicine. While Large Language Models possess unprecedented linguistic capabilities, their architectural reliance on reactive and stateless processing often favors probabilistic plausibility over factual veracity. This structural limitation has catalyzed a paradigm shift in medical AI from generative text prediction to agentic autonomy, where the model functions as a central reasoning engine capable of deliberate planning and persistent memory. Moving beyond existing reviews that primarily catalog downstream applications, this survey provides a first-principles analysis of the cognitive architecture underpinning this shift. We introduce a novel taxonomy structured along the orthogonal axes of knowledge source and agency objective to delineate the provenance of clinical knowledge against the system's operational scope. This framework facilitates a systematic analysis of the intrinsic trade-offs between creativity and reliability by categorizing methods into four archetypes: Latent Space Clinicians, Emergent Planners, Grounded Synthesizers, and Verifiable Workflow Automators. For each paradigm, we deconstruct the technical realization across the entire cognitive pipeline, encompassing strategic planning, memory management, action execution, collaboration, and evolution to reveal how distinct architectural choices balance the tension between autonomy and safety.