Diagnóstico da Gravidade da COVID-19 a partir de Imagens de Raio-X Torácico Utilizando Arquiteturas ViT e CNN
Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures
February 23, 2025
Autores: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI
Resumo
A pandemia de COVID-19 sobrecarregou os recursos de saúde e gerou discussões sobre como o aprendizado de máquina pode aliviar a carga dos médicos e contribuir para o diagnóstico. Radiografias de tórax (CXRs) são utilizadas para o diagnóstico da COVID-19, mas poucos estudos preveem a gravidade da condição do paciente a partir dessas imagens. Neste estudo, criamos um grande conjunto de dados sobre a gravidade da COVID-19 ao combinar três fontes e investigamos a eficácia do aprendizado por transferência usando modelos pré-treinados no ImageNet e em CXRs, além de transformadores de visão (ViTs), tanto em tarefas de regressão quanto de classificação de gravidade. Um modelo DenseNet161 pré-treinado obteve o melhor desempenho na previsão de gravidade em três classes, alcançando 80% de acurácia geral e 77,3%, 83,9% e 70% nos casos leves, moderados e graves, respectivamente. O ViT obteve os melhores resultados na regressão, com um erro absoluto médio de 0,5676 em comparação com as pontuações de gravidade previstas por radiologistas. O código-fonte do projeto está disponível publicamente.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion
about how machine learning can alleviate physician burdens and contribute to
diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few
studies predict the severity of a patient's condition from CXRs. In this study,
we produce a large COVID severity dataset by merging three sources and
investigate the efficacy of transfer learning using ImageNet- and
CXR-pretrained models and vision transformers (ViTs) in both severity
regression and classification tasks. A pretrained DenseNet161 model performed
the best on the three class severity prediction problem, reaching 80% accuracy
overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases,
respectively. The ViT had the best regression results, with a mean absolute
error of 0.5676 compared to radiologist-predicted severity scores. The
project's source code is publicly available.Summary
AI-Generated Summary