Ripensare l'interpretazione delle immagini TC total body: un approccio centrato sulle anomalie
Rethinking Whole-Body CT Image Interpretation: An Abnormality-Centric Approach
June 3, 2025
Autori: Ziheng Zhao, Lisong Dai, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI
Abstract
L'interpretazione automatizzata delle immagini TC, in particolare la localizzazione e la descrizione di anomalie attraverso scansioni multi-piano e di tutto il corpo, rimane una sfida significativa nella radiologia clinica. Questo lavoro mira ad affrontare questa sfida attraverso quattro contributi chiave: (i) Sulla tassonomia, collaboriamo con radiologi senior per proporre un sistema di classificazione gerarchico completo, con 404 anomalie rappresentative in tutte le regioni del corpo; (ii) Sui dati, contribuiamo con un dataset contenente oltre 14.5K immagini TC da piani multipli e da tutte le regioni del corpo umano, e forniamo meticolosamente annotazioni di riferimento per oltre 19K anomalie, ciascuna collegata alla descrizione dettagliata e inserita nella tassonomia; (iii) Sullo sviluppo del modello, proponiamo OminiAbnorm-CT, che può automaticamente individuare e descrivere anomalie su immagini TC multi-piano e di tutto il corpo basandosi su query testuali, consentendo anche un'interazione flessibile attraverso prompt visivi; (iv) Sui benchmark, stabiliamo tre compiti di valutazione rappresentativi basati su scenari clinici reali. Attraverso esperimenti estesi, dimostriamo che OminiAbnorm-CT può superare significativamente i metodi esistenti in tutti i compiti e metriche.
English
Automated interpretation of CT images-particularly localizing and describing
abnormal findings across multi-plane and whole-body scans-remains a significant
challenge in clinical radiology. This work aims to address this challenge
through four key contributions: (i) On taxonomy, we collaborate with senior
radiologists to propose a comprehensive hierarchical classification system,
with 404 representative abnormal findings across all body regions; (ii) On
data, we contribute a dataset containing over 14.5K CT images from multiple
planes and all human body regions, and meticulously provide grounding
annotations for over 19K abnormalities, each linked to the detailed description
and cast into the taxonomy; (iii) On model development, we propose
OminiAbnorm-CT, which can automatically ground and describe abnormal findings
on multi-plane and whole-body CT images based on text queries, while also
allowing flexible interaction through visual prompts; (iv) On benchmarks, we
establish three representative evaluation tasks based on real clinical
scenarios. Through extensive experiments, we show that OminiAbnorm-CT can
significantly outperform existing methods on all the tasks and metrics.