CoD, Auf dem Weg zu einem interpretierbaren medizinischen Agenten unter Verwendung einer Diagnosekette
CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis
July 18, 2024
Autoren: Junying Chen, Chi Gui, Anningzhe Gao, Ke Ji, Xidong Wang, Xiang Wan, Benyou Wang
cs.AI
Zusammenfassung
Das Gebiet der medizinischen Diagnose hat durch das Aufkommen großer Sprachmodelle (LLMs) eine bedeutende Transformation erfahren, doch die Herausforderungen der Interpretierbarkeit innerhalb dieser Modelle bleiben weitgehend ungelöst. Diese Studie führt Chain-of-Diagnosis (CoD) ein, um die Interpretierbarkeit von LLM-basierten medizinischen Diagnosen zu verbessern. CoD verwandelt den diagnostischen Prozess in eine Diagnosekette, die den Denkprozess eines Arztes widerspiegelt und einen transparenten Argumentationsweg bietet. Darüber hinaus gibt CoD die Krankheitsvertrauensverteilung aus, um Transparenz in der Entscheidungsfindung zu gewährleisten. Diese Interpretierbarkeit macht die Modell-Diagnostik steuerbar und hilft bei der Identifizierung kritischer Symptome zur Untersuchung durch die Entropiereduzierung der Vertrauenswerte. Mit CoD haben wir DiagnosisGPT entwickelt, das in der Lage ist, 9604 Krankheiten zu diagnostizieren. Experimentelle Ergebnisse zeigen, dass DiagnosisGPT andere LLMs in diagnostischen Benchmarks übertrifft. Darüber hinaus bietet DiagnosisGPT Interpretierbarkeit und gewährleistet Steuerbarkeit in der diagnostischen Strenge.
English
The field of medical diagnosis has undergone a significant transformation
with the advent of large language models (LLMs), yet the challenges of
interpretability within these models remain largely unaddressed. This study
introduces Chain-of-Diagnosis (CoD) to enhance the interpretability of
LLM-based medical diagnostics. CoD transforms the diagnostic process into a
diagnostic chain that mirrors a physician's thought process, providing a
transparent reasoning pathway. Additionally, CoD outputs the disease confidence
distribution to ensure transparency in decision-making. This interpretability
makes model diagnostics controllable and aids in identifying critical symptoms
for inquiry through the entropy reduction of confidences. With CoD, we
developed DiagnosisGPT, capable of diagnosing 9604 diseases. Experimental
results demonstrate that DiagnosisGPT outperforms other LLMs on diagnostic
benchmarks. Moreover, DiagnosisGPT provides interpretability while ensuring
controllability in diagnostic rigor.Summary
AI-Generated Summary