Переосмысление интерпретации КТ-изображений всего тела: подход, ориентированный на аномалии
Rethinking Whole-Body CT Image Interpretation: An Abnormality-Centric Approach
June 3, 2025
Авторы: Ziheng Zhao, Lisong Dai, Ya Zhang, Yanfeng Wang, Weidi Xie
cs.AI
Аннотация
Автоматизированная интерпретация КТ-изображений, особенно локализация и описание патологических изменений на многоплоскостных и полнокупных сканах, остается значительной проблемой в клинической радиологии. Данная работа направлена на решение этой проблемы через четыре ключевых вклада: (i) В области таксономии мы сотрудничаем с опытными радиологами, чтобы предложить всеобъемлющую иерархическую систему классификации, включающую 404 типичных патологических изменения во всех областях тела; (ii) В области данных мы представляем набор данных, содержащий более 14,5 тыс. КТ-изображений из различных плоскостей и всех областей человеческого тела, с тщательно проработанными аннотациями для более чем 19 тыс. патологий, каждая из которых связана с подробным описанием и включена в таксономию; (iii) В области разработки моделей мы предлагаем OminiAbnorm-CT, который может автоматически локализовать и описывать патологические изменения на многоплоскостных и полнокупных КТ-изображениях на основе текстовых запросов, а также обеспечивает гибкое взаимодействие через визуальные подсказки; (iv) В области бенчмарков мы устанавливаем три репрезентативные задачи оценки, основанные на реальных клинических сценариях. Благодаря обширным экспериментам мы демонстрируем, что OminiAbnorm-CT значительно превосходит существующие методы по всем задачам и метрикам.
English
Automated interpretation of CT images-particularly localizing and describing
abnormal findings across multi-plane and whole-body scans-remains a significant
challenge in clinical radiology. This work aims to address this challenge
through four key contributions: (i) On taxonomy, we collaborate with senior
radiologists to propose a comprehensive hierarchical classification system,
with 404 representative abnormal findings across all body regions; (ii) On
data, we contribute a dataset containing over 14.5K CT images from multiple
planes and all human body regions, and meticulously provide grounding
annotations for over 19K abnormalities, each linked to the detailed description
and cast into the taxonomy; (iii) On model development, we propose
OminiAbnorm-CT, which can automatically ground and describe abnormal findings
on multi-plane and whole-body CT images based on text queries, while also
allowing flexible interaction through visual prompts; (iv) On benchmarks, we
establish three representative evaluation tasks based on real clinical
scenarios. Through extensive experiments, we show that OminiAbnorm-CT can
significantly outperform existing methods on all the tasks and metrics.