ChatPaper.aiChatPaper

AgentEHR: 후향적 요약을 통한 자율적 임상 의사결정 발전

AgentEHR: Advancing Autonomous Clinical Decision-Making via Retrospective Summarization

January 20, 2026
저자: Yusheng Liao, Chuan Xuan, Yutong Cai, Lina Yang, Zhe Chen, Yanfeng Wang, Yu Wang
cs.AI

초록

대규모 언어 모델은 의료 영역에서 상당한 유용성을 입증해왔습니다. 그러나 전자의무기록(EHR)의 자율적 탐색에 대한 적용은 여전히 정제된 입력과 단순화된 검색 작업에 의존함으로써 제한되고 있습니다. 이상적인 실험 환경과 실제 임상 환경 간의 격차를 해소하기 위해 우리는 AgentEHR을 제시합니다. 이 벤치마크는 에이전트가 원본 및 고잡음 데이터베이스 내에서 직접 장기간의 상호작용적 추론을 요구하는 진단 및 치료 계획 수립과 같은 복잡한 의사 결정 작업을 수행하도록 요구합니다. 이러한 작업을 해결하는 과정에서 우리는 기존 요약 방법들이 필연적으로 중요한 정보 손실과 단절된 추론 연속성을 겪게 됨을 확인했습니다. 이를 해결하기 위해 우리는 회고적 요약 메커니즘과 진화하는 경험 전략을 통합한 새로운 프레임워크인 RetroSum을 제안합니다. 상호작용 이력을 동적으로 재평가함으로써 회고적 메커니즘은 장문맥 정보 손실을 방지하고 끊어지지 않는 논리적 일관성을 보장합니다. 또한, 진화 전략은 메모리 뱅크에서 축적된 경험을 검색하여 도메인 격차를 해소합니다. 광범위한 실증 평가를 통해 RetroSum이 경쟁력 있는 베이스라인 대비 최대 29.16%의 성능 향상을 달성하면서도 총 상호작용 오류를 최대 92.3%까지 크게 감소시킴을 입증했습니다.
English
Large Language Models have demonstrated profound utility in the medical domain. However, their application to autonomous Electronic Health Records~(EHRs) navigation remains constrained by a reliance on curated inputs and simplified retrieval tasks. To bridge the gap between idealized experimental settings and realistic clinical environments, we present AgentEHR. This benchmark challenges agents to execute complex decision-making tasks, such as diagnosis and treatment planning, requiring long-range interactive reasoning directly within raw and high-noise databases. In tackling these tasks, we identify that existing summarization methods inevitably suffer from critical information loss and fractured reasoning continuity. To address this, we propose RetroSum, a novel framework that unifies a retrospective summarization mechanism with an evolving experience strategy. By dynamically re-evaluating interaction history, the retrospective mechanism prevents long-context information loss and ensures unbroken logical coherence. Additionally, the evolving strategy bridges the domain gap by retrieving accumulated experience from a memory bank. Extensive empirical evaluations demonstrate that RetroSum achieves performance gains of up to 29.16% over competitive baselines, while significantly decreasing total interaction errors by up to 92.3%.
PDF51January 23, 2026