Diagnose der COVID-19-Schwere anhand von Brust-Röntgenbildern mit ViT- und CNN-Architekturen.
Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures
February 23, 2025
Autoren: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI
Zusammenfassung
Die COVID-19-Pandemie belastete Gesundheitsressourcen und löste Diskussionen darüber aus, wie maschinelles Lernen die Arbeitslast der Ärzte verringern und zur Diagnose beitragen kann. Brust-Röntgenaufnahmen (CXR) werden zur Diagnose von COVID-19 verwendet, aber nur wenige Studien sagen die Schwere des Zustands eines Patienten anhand von CXRs voraus. In dieser Studie erstellen wir einen umfangreichen Datensatz zur Schwere von COVID, indem wir drei Quellen zusammenführen, und untersuchen die Wirksamkeit des Transferlernens unter Verwendung von ImageNet- und CXR-vortrainierten Modellen sowie Vision-Transformern (ViTs) bei sowohl der Schweregrad-Regression als auch der Klassifizierungsaufgaben. Ein vortrainiertes DenseNet161-Modell schnitt am besten bei dem Problem der Vorhersage des Schweregrads in drei Klassen ab, mit einer Gesamtgenauigkeit von 80% und jeweils 77,3%, 83,9% und 70% für leichte, mittelschwere und schwere Fälle. Das ViT erzielte die besten Ergebnisse bei der Regression, mit einem mittleren absoluten Fehler von 0,5676 im Vergleich zu von Radiologen vorhergesagten Schweregradpunktzahlen. Der Quellcode des Projekts ist öffentlich verfügbar.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion
about how machine learning can alleviate physician burdens and contribute to
diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few
studies predict the severity of a patient's condition from CXRs. In this study,
we produce a large COVID severity dataset by merging three sources and
investigate the efficacy of transfer learning using ImageNet- and
CXR-pretrained models and vision transformers (ViTs) in both severity
regression and classification tasks. A pretrained DenseNet161 model performed
the best on the three class severity prediction problem, reaching 80% accuracy
overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases,
respectively. The ViT had the best regression results, with a mean absolute
error of 0.5676 compared to radiologist-predicted severity scores. The
project's source code is publicly available.Summary
AI-Generated Summary