ChatPaper.aiChatPaper

Diagnostic de la gravité du COVID-19 à partir d'images radiographiques thoraciques à l'aide d'architectures ViT et CNN

Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures

February 23, 2025
Auteurs: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI

Résumé

La pandémie de COVID-19 a mis à rude épreuve les ressources de santé et a suscité des discussions sur la manière dont l'apprentissage automatique pourrait alléger la charge des médecins et contribuer au diagnostic. Les radiographies pulmonaires (CXR) sont utilisées pour le diagnostic de la COVID-19, mais peu d'études prédisent la gravité de l'état d'un patient à partir de ces images. Dans cette étude, nous créons un vaste ensemble de données sur la gravité de la COVID-19 en fusionnant trois sources et nous examinons l'efficacité du transfert d'apprentissage en utilisant des modèles pré-entraînés sur ImageNet et sur des CXR, ainsi que des transformateurs de vision (ViTs), pour des tâches de régression et de classification de la gravité. Un modèle DenseNet161 pré-entraîné a obtenu les meilleurs résultats pour la prédiction de la gravité en trois classes, atteignant une précision globale de 80 %, avec des scores de 77,3 %, 83,9 % et 70 % pour les cas légers, modérés et graves, respectivement. Le ViT a obtenu les meilleurs résultats en régression, avec une erreur absolue moyenne de 0,5676 par rapport aux scores de gravité prédits par les radiologues. Le code source du projet est disponible publiquement.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion about how machine learning can alleviate physician burdens and contribute to diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few studies predict the severity of a patient's condition from CXRs. In this study, we produce a large COVID severity dataset by merging three sources and investigate the efficacy of transfer learning using ImageNet- and CXR-pretrained models and vision transformers (ViTs) in both severity regression and classification tasks. A pretrained DenseNet161 model performed the best on the three class severity prediction problem, reaching 80% accuracy overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases, respectively. The ViT had the best regression results, with a mean absolute error of 0.5676 compared to radiologist-predicted severity scores. The project's source code is publicly available.

Summary

AI-Generated Summary

PDF22February 25, 2025