ChatPaper.aiChatPaper

CoD, Auf dem Weg zu einem interpretierbaren medizinischen Agenten unter Verwendung einer Diagnosekette

CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis

July 18, 2024
Autoren: Junying Chen, Chi Gui, Anningzhe Gao, Ke Ji, Xidong Wang, Xiang Wan, Benyou Wang
cs.AI

Zusammenfassung

Das Gebiet der medizinischen Diagnose hat durch das Aufkommen großer Sprachmodelle (LLMs) eine bedeutende Transformation erfahren, doch die Herausforderungen der Interpretierbarkeit innerhalb dieser Modelle bleiben weitgehend ungelöst. Diese Studie führt Chain-of-Diagnosis (CoD) ein, um die Interpretierbarkeit von LLM-basierten medizinischen Diagnosen zu verbessern. CoD verwandelt den diagnostischen Prozess in eine Diagnosekette, die den Denkprozess eines Arztes widerspiegelt und einen transparenten Argumentationsweg bietet. Darüber hinaus gibt CoD die Krankheitsvertrauensverteilung aus, um Transparenz in der Entscheidungsfindung zu gewährleisten. Diese Interpretierbarkeit macht die Modell-Diagnostik steuerbar und hilft bei der Identifizierung kritischer Symptome zur Untersuchung durch die Entropiereduzierung der Vertrauenswerte. Mit CoD haben wir DiagnosisGPT entwickelt, das in der Lage ist, 9604 Krankheiten zu diagnostizieren. Experimentelle Ergebnisse zeigen, dass DiagnosisGPT andere LLMs in diagnostischen Benchmarks übertrifft. Darüber hinaus bietet DiagnosisGPT Interpretierbarkeit und gewährleistet Steuerbarkeit in der diagnostischen Strenge.
English
The field of medical diagnosis has undergone a significant transformation with the advent of large language models (LLMs), yet the challenges of interpretability within these models remain largely unaddressed. This study introduces Chain-of-Diagnosis (CoD) to enhance the interpretability of LLM-based medical diagnostics. CoD transforms the diagnostic process into a diagnostic chain that mirrors a physician's thought process, providing a transparent reasoning pathway. Additionally, CoD outputs the disease confidence distribution to ensure transparency in decision-making. This interpretability makes model diagnostics controllable and aids in identifying critical symptoms for inquiry through the entropy reduction of confidences. With CoD, we developed DiagnosisGPT, capable of diagnosing 9604 diseases. Experimental results demonstrate that DiagnosisGPT outperforms other LLMs on diagnostic benchmarks. Moreover, DiagnosisGPT provides interpretability while ensuring controllability in diagnostic rigor.

Summary

AI-Generated Summary

PDF574November 28, 2024