ChatPaper.aiChatPaper

전신 CT 이미지 해석 재고: 이상 중심 접근법

Rethinking Whole-Body CT Image Interpretation: An Abnormality-Centric Approach

June 3, 2025
저자: Ziheng Zhao, Lisong Dai, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI

초록

CT 영상의 자동 해석, 특히 다중 평면 및 전신 스캔에서의 이상 소견 위치 파악 및 기술은 임상 영상의학 분야에서 여전히 중요한 과제로 남아 있습니다. 본 연구는 이 문제를 해결하기 위해 네 가지 주요 기여를 제시합니다: (i) 분류 체계 측면에서, 수석 영상의학 전문가들과 협력하여 모든 신체 부위에 걸친 404개의 대표적인 이상 소견을 포함한 포괄적인 계층적 분류 시스템을 제안합니다; (ii) 데이터 측면에서, 다중 평면 및 모든 인체 부위에서 촬영된 14,500건 이상의 CT 영상을 포함한 데이터셋을 제공하며, 19,000건 이상의 이상 소견에 대한 정교한 그라운딩 주석을 상세 설명과 연결하여 분류 체계에 적용했습니다; (iii) 모델 개발 측면에서, 텍스트 쿼리를 기반으로 다중 평면 및 전신 CT 영상에서 이상 소견을 자동으로 그라운딩하고 기술할 수 있는 OminiAbnorm-CT를 제안하며, 시각적 프롬프트를 통한 유연한 상호작용도 가능하게 합니다; (iv) 벤치마크 측면에서, 실제 임상 시나리오를 기반으로 세 가지 대표적인 평가 과제를 설정했습니다. 광범위한 실험을 통해 OminiAbnorm-CT가 모든 과제와 평가 지표에서 기존 방법들을 크게 능가할 수 있음을 입증했습니다.
English
Automated interpretation of CT images-particularly localizing and describing abnormal findings across multi-plane and whole-body scans-remains a significant challenge in clinical radiology. This work aims to address this challenge through four key contributions: (i) On taxonomy, we collaborate with senior radiologists to propose a comprehensive hierarchical classification system, with 404 representative abnormal findings across all body regions; (ii) On data, we contribute a dataset containing over 14.5K CT images from multiple planes and all human body regions, and meticulously provide grounding annotations for over 19K abnormalities, each linked to the detailed description and cast into the taxonomy; (iii) On model development, we propose OminiAbnorm-CT, which can automatically ground and describe abnormal findings on multi-plane and whole-body CT images based on text queries, while also allowing flexible interaction through visual prompts; (iv) On benchmarks, we establish three representative evaluation tasks based on real clinical scenarios. Through extensive experiments, we show that OminiAbnorm-CT can significantly outperform existing methods on all the tasks and metrics.
PDF12June 6, 2025