CoD:診断連鎖を用いた解釈可能な医療エージェントの実現に向けて
CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis
July 18, 2024
著者: Junying Chen, Chi Gui, Anningzhe Gao, Ke Ji, Xidong Wang, Xiang Wan, Benyou Wang
cs.AI
要旨
医療診断の分野は、大規模言語モデル(LLM)の登場により大きな変革を遂げてきたが、これらのモデル内での解釈可能性に関する課題は依然としてほとんど未解決のままである。本研究では、LLMベースの医療診断の解釈可能性を向上させるために、Chain-of-Diagnosis(CoD)を導入する。CoDは、診断プロセスを医師の思考プロセスを反映した診断チェーンに変換し、透明な推論経路を提供する。さらに、CoDは意思決定の透明性を確保するために、疾患の信頼度分布を出力する。この解釈可能性により、モデル診断を制御可能にし、信頼度のエントロピー減少を通じて重要な症状を特定するのに役立つ。CoDを用いて、9604の疾患を診断可能なDiagnosisGPTを開発した。実験結果は、DiagnosisGPTが診断ベンチマークにおいて他のLLMを上回ることを示している。さらに、DiagnosisGPTは診断の厳密さを制御可能にしながら、解釈可能性を提供する。
English
The field of medical diagnosis has undergone a significant transformation
with the advent of large language models (LLMs), yet the challenges of
interpretability within these models remain largely unaddressed. This study
introduces Chain-of-Diagnosis (CoD) to enhance the interpretability of
LLM-based medical diagnostics. CoD transforms the diagnostic process into a
diagnostic chain that mirrors a physician's thought process, providing a
transparent reasoning pathway. Additionally, CoD outputs the disease confidence
distribution to ensure transparency in decision-making. This interpretability
makes model diagnostics controllable and aids in identifying critical symptoms
for inquiry through the entropy reduction of confidences. With CoD, we
developed DiagnosisGPT, capable of diagnosing 9604 diseases. Experimental
results demonstrate that DiagnosisGPT outperforms other LLMs on diagnostic
benchmarks. Moreover, DiagnosisGPT provides interpretability while ensuring
controllability in diagnostic rigor.Summary
AI-Generated Summary