ChatPaper.aiChatPaper

AgentEHR:後顧的サマリー化による自律的臨床意思決定の進展

AgentEHR: Advancing Autonomous Clinical Decision-Making via Retrospective Summarization

January 20, 2026
著者: Yusheng Liao, Chuan Xuan, Yutong Cai, Lina Yang, Zhe Chen, Yanfeng Wang, Yu Wang
cs.AI

要旨

大規模言語モデルは医療分野において極めて有用であることが実証されている。しかし、自律的な電子健康記録(EHR)ナビゲーションへの応用は、精選された入力と単純化された検索タスクへの依存によって制限されている。理想化された実験環境と現実的な臨床環境の隔たりを埋めるため、我々はAgentEHRを提案する。このベンチマークは、エージェントが診断や治療計画などの複雑な意思決定タスクを、加工されていない高ノイズのデータベース内で直接、長期的な対話的推論を要求して実行することを課題とする。これらの課題に取り組む中で、既存の要約手法では不可避的に重大な情報損失と推論の連続性の断絶が生じることを明らかにした。この問題に対処するため、我々は回顧的要約メカニズムと進化する経験戦略を統合した新規フレームワークRetroSumを提案する。回顧的メカニズムは対話履歴を動的に再評価することで、長文脈における情報損失を防止し、途切れない論理的整合性を保証する。さらに、進化戦略はメモリバンクから蓄積された経験を検索することでドメインギャップを埋める。大規模な実証評価により、RetroSumが競合ベースラインに対して最大29.16%の性能向上を達成し、総対話エラーを最大92.3%大幅に削減することを実証した。
English
Large Language Models have demonstrated profound utility in the medical domain. However, their application to autonomous Electronic Health Records~(EHRs) navigation remains constrained by a reliance on curated inputs and simplified retrieval tasks. To bridge the gap between idealized experimental settings and realistic clinical environments, we present AgentEHR. This benchmark challenges agents to execute complex decision-making tasks, such as diagnosis and treatment planning, requiring long-range interactive reasoning directly within raw and high-noise databases. In tackling these tasks, we identify that existing summarization methods inevitably suffer from critical information loss and fractured reasoning continuity. To address this, we propose RetroSum, a novel framework that unifies a retrospective summarization mechanism with an evolving experience strategy. By dynamically re-evaluating interaction history, the retrospective mechanism prevents long-context information loss and ensures unbroken logical coherence. Additionally, the evolving strategy bridges the domain gap by retrieving accumulated experience from a memory bank. Extensive empirical evaluations demonstrate that RetroSum achieves performance gains of up to 29.16% over competitive baselines, while significantly decreasing total interaction errors by up to 92.3%.
PDF51January 23, 2026