ChatPaper.aiChatPaper

Diagnose van COVID-19 Ernst van Borst X-Ray Beelden met behulp van ViT en CNN Architecturen

Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures

February 23, 2025
Auteurs: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI

Samenvatting

De COVID-19 pandemie legde druk op de gezondheidszorg en leidde tot discussie over hoe machine learning de last voor artsen kan verlichten en kan bijdragen aan diagnosestelling. Borst röntgenfoto's (CXR's) worden gebruikt voor de diagnose van COVID-19, maar er zijn weinig studies die de ernst van de aandoening van een patiënt voorspellen op basis van CXR's. In dit onderzoek produceren we een omvangrijke dataset over COVID-ernst door drie bronnen samen te voegen en onderzoeken we de doeltreffendheid van transfer learning met behulp van voor ImageNet en CXR voorgetrainde modellen en vision transformers (ViTs) in zowel ernstregressie- als classificatietaken. Een voorgetraind DenseNet161-model presteerde het beste bij het voorspellen van de ernst in drie klassen, met een algehele nauwkeurigheid van 80% en respectievelijk 77,3%, 83,9% en 70% voor milde, matige en ernstige gevallen. De ViT behaalde de beste regressieresultaten, met een gemiddelde absolute fout van 0,5676 in vergelijking met door radiologen voorspelde ernstscores. De broncode van het project is openbaar beschikbaar.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion about how machine learning can alleviate physician burdens and contribute to diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few studies predict the severity of a patient's condition from CXRs. In this study, we produce a large COVID severity dataset by merging three sources and investigate the efficacy of transfer learning using ImageNet- and CXR-pretrained models and vision transformers (ViTs) in both severity regression and classification tasks. A pretrained DenseNet161 model performed the best on the three class severity prediction problem, reaching 80% accuracy overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases, respectively. The ViT had the best regression results, with a mean absolute error of 0.5676 compared to radiologist-predicted severity scores. The project's source code is publicly available.

Summary

AI-Generated Summary

PDF22February 25, 2025