Diagnose van COVID-19 Ernst van Borst X-Ray Beelden met behulp van ViT en CNN Architecturen
Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures
February 23, 2025
Auteurs: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI
Samenvatting
De COVID-19 pandemie legde druk op de gezondheidszorg en leidde tot discussie over hoe machine learning de last voor artsen kan verlichten en kan bijdragen aan diagnosestelling. Borst röntgenfoto's (CXR's) worden gebruikt voor de diagnose van COVID-19, maar er zijn weinig studies die de ernst van de aandoening van een patiënt voorspellen op basis van CXR's. In dit onderzoek produceren we een omvangrijke dataset over COVID-ernst door drie bronnen samen te voegen en onderzoeken we de doeltreffendheid van transfer learning met behulp van voor ImageNet en CXR voorgetrainde modellen en vision transformers (ViTs) in zowel ernstregressie- als classificatietaken. Een voorgetraind DenseNet161-model presteerde het beste bij het voorspellen van de ernst in drie klassen, met een algehele nauwkeurigheid van 80% en respectievelijk 77,3%, 83,9% en 70% voor milde, matige en ernstige gevallen. De ViT behaalde de beste regressieresultaten, met een gemiddelde absolute fout van 0,5676 in vergelijking met door radiologen voorspelde ernstscores. De broncode van het project is openbaar beschikbaar.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion
about how machine learning can alleviate physician burdens and contribute to
diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few
studies predict the severity of a patient's condition from CXRs. In this study,
we produce a large COVID severity dataset by merging three sources and
investigate the efficacy of transfer learning using ImageNet- and
CXR-pretrained models and vision transformers (ViTs) in both severity
regression and classification tasks. A pretrained DenseNet161 model performed
the best on the three class severity prediction problem, reaching 80% accuracy
overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases,
respectively. The ViT had the best regression results, with a mean absolute
error of 0.5676 compared to radiologist-predicted severity scores. The
project's source code is publicly available.Summary
AI-Generated Summary