胸部X線画像を用いたViTとCNNアーキテクチャによるCOVID-19重症度診断
Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures
February 23, 2025
著者: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI
要旨
COVID-19パンデミックは医療資源に大きな負荷をかけ、機械学習が医師の負担を軽減し診断に貢献する方法についての議論を促しました。胸部X線(CXR)はCOVID-19の診断に使用されますが、CXRから患者の状態の重症度を予測する研究はほとんどありません。本研究では、3つのソースを統合して大規模なCOVID重症度データセットを作成し、ImageNetおよびCXRで事前学習されたモデルとビジョントランスフォーマー(ViT)を用いた転移学習の有効性を、重症度回帰と分類タスクの両方で調査しました。事前学習済みのDenseNet161モデルは、3クラスの重症度予測問題で最高の性能を発揮し、全体で80%の精度を達成し、軽症、中等症、重症のケースでそれぞれ77.3%、83.9%、70%の精度を示しました。ViTは回帰タスクで最良の結果を示し、放射線科医が予測した重症度スコアとの平均絶対誤差は0.5676でした。本プロジェクトのソースコードは公開されています。
English
The COVID-19 pandemic strained healthcare resources and prompted discussion
about how machine learning can alleviate physician burdens and contribute to
diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few
studies predict the severity of a patient's condition from CXRs. In this study,
we produce a large COVID severity dataset by merging three sources and
investigate the efficacy of transfer learning using ImageNet- and
CXR-pretrained models and vision transformers (ViTs) in both severity
regression and classification tasks. A pretrained DenseNet161 model performed
the best on the three class severity prediction problem, reaching 80% accuracy
overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases,
respectively. The ViT had the best regression results, with a mean absolute
error of 0.5676 compared to radiologist-predicted severity scores. The
project's source code is publicly available.Summary
AI-Generated Summary