ChatPaper.aiChatPaper

MRGen: Motor de Datos Controlable basado en Difusión para la Segmentación de MRI hacia Modalidades No Anotadas

MRGen: Diffusion-based Controllable Data Engine for MRI Segmentation towards Unannotated Modalities

December 4, 2024
Autores: Haoning Wu, Ziheng Zhao, Ya Zhang, Weidi Xie, Yanfeng Wang
cs.AI

Resumen

La segmentación de imágenes médicas ha demostrado recientemente un progreso impresionante con redes neuronales profundas, sin embargo, las modalidades heterogéneas y la escasez de anotaciones de máscaras limitan el desarrollo de modelos de segmentación en modalidades no anotadas. Este artículo investiga un nuevo paradigma para aprovechar los modelos generativos en aplicaciones médicas: sintetizar datos de manera controlada para modalidades no anotadas, sin necesidad de datos registrados emparejados. Específicamente, realizamos las siguientes contribuciones en este artículo: (i) recopilamos y curamos un conjunto de datos de imágenes y texto de radiología a gran escala, MedGen-1M, que incluye etiquetas de modalidad, atributos, información de región y órganos, junto con un subconjunto de anotaciones de máscaras de órganos, para respaldar la investigación en generación de imágenes médicas controlables; (ii) proponemos un motor de datos basado en difusión, denominado MRGen, que permite la generación condicionada a través de indicaciones de texto y máscaras, sintetizando imágenes de resonancia magnética para diversas modalidades que carecen de anotaciones de máscaras, para entrenar modelos de segmentación en modalidades no anotadas; (iii) realizamos experimentos extensos en varias modalidades, demostrando que nuestro motor de datos puede sintetizar de manera efectiva muestras de entrenamiento y extender la segmentación de resonancia magnética hacia modalidades no anotadas.
English
Medical image segmentation has recently demonstrated impressive progress with deep neural networks, yet the heterogeneous modalities and scarcity of mask annotations limit the development of segmentation models on unannotated modalities. This paper investigates a new paradigm for leveraging generative models in medical applications: controllably synthesizing data for unannotated modalities, without requiring registered data pairs. Specifically, we make the following contributions in this paper: (i) we collect and curate a large-scale radiology image-text dataset, MedGen-1M, comprising modality labels, attributes, region, and organ information, along with a subset of organ mask annotations, to support research in controllable medical image generation; (ii) we propose a diffusion-based data engine, termed MRGen, which enables generation conditioned on text prompts and masks, synthesizing MR images for diverse modalities lacking mask annotations, to train segmentation models on unannotated modalities; (iii) we conduct extensive experiments across various modalities, illustrating that our data engine can effectively synthesize training samples and extend MRI segmentation towards unannotated modalities.

Summary

AI-Generated Summary

PDF62December 6, 2024