흉부 X-RAY 이미지를 활용한 COVID-19 중증도 진단: ViT와 CNN 아키텍처 기반
Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures
February 23, 2025
저자: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI
초록
COVID-19 팬데믹은 의료 자원에 부담을 주었으며, 머신러닝이 의사의 부담을 완화하고 진단에 기여할 수 있는 방법에 대한 논의를 촉발시켰다. 흉부 X선(CXR)은 COVID-19 진단에 사용되지만, CXR을 통해 환자 상태의 중증도를 예측한 연구는 거의 없다. 본 연구에서는 세 가지 출처를 병합하여 대규모 COVID 중증도 데이터셋을 구축하고, ImageNet 및 CXR 사전 학습 모델과 비전 트랜스포머(ViT)를 사용한 전이 학습의 효용성을 중증도 회귀 및 분류 작업에서 조사하였다. 사전 학습된 DenseNet161 모델이 세 가지 클래스 중증도 예측 문제에서 가장 우수한 성능을 보였으며, 전체 정확도는 80%, 경증, 중등도, 중증 사례에서 각각 77.3%, 83.9%, 70%의 정확도를 달성했다. ViT는 회귀 결과에서 가장 우수한 성능을 보였으며, 방사선 전문가가 예측한 중증도 점수와 비교하여 평균 절대 오차가 0.5676이었다. 본 프로젝트의 소스 코드는 공개되어 있다.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion
about how machine learning can alleviate physician burdens and contribute to
diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few
studies predict the severity of a patient's condition from CXRs. In this study,
we produce a large COVID severity dataset by merging three sources and
investigate the efficacy of transfer learning using ImageNet- and
CXR-pretrained models and vision transformers (ViTs) in both severity
regression and classification tasks. A pretrained DenseNet161 model performed
the best on the three class severity prediction problem, reaching 80% accuracy
overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases,
respectively. The ViT had the best regression results, with a mean absolute
error of 0.5676 compared to radiologist-predicted severity scores. The
project's source code is publicly available.Summary
AI-Generated Summary