ChatPaper.aiChatPaper

Filter2Noise: Interpreteerbare zelfgesuperviseerde enkelbeeld-ruisonderdrukking voor lage-dosis CT met aandacht-gestuurd bilateraal filteren

Filter2Noise: Interpretable Self-Supervised Single-Image Denoising for Low-Dose CT with Attention-Guided Bilateral Filtering

April 18, 2025
Auteurs: Yipeng Sun, Linda-Sophie Schneider, Mingxuan Gu, Siyuan Mei, Chengze Ye, Fabian Wagner, Siming Bayer, Andreas Maier
cs.AI

Samenvatting

Effectieve ruisreductie is cruciaal bij CT-scans met lage dosis om subtiele structuren en laagcontrastlaesies te versterken en diagnostische fouten te voorkomen. Gesuperviseerde methoden worstelen met beperkte gepaarde datasets, en zelfgesuperviseerde benaderingen vereisen vaak meerdere ruisachtige afbeeldingen en vertrouwen op diepe netwerken zoals U-Net, wat weinig inzicht biedt in het ruisreductiemechanisme. Om deze uitdagingen aan te pakken, stellen we een interpreteerbaar zelfgesuperviseerd raamwerk voor ruisreductie met één afbeelding voor -- Filter2Noise (F2N). Onze aanpak introduceert een Attention-Guided Bilateral Filter dat wordt aangepast aan elke ruisachtige invoer via een lichtgewicht module die ruimtelijk variërende filterparameters voorspelt, die na de training kunnen worden gevisualiseerd en aangepast voor gebruikersgestuurde ruisreductie in specifieke interessegebieden. Om training met één afbeelding mogelijk te maken, introduceren we een nieuwe downsampling shuffle-strategie met een nieuwe zelfgesuperviseerde verliesfunctie die het concept van Noise2Noise uitbreidt naar één afbeelding en ruimtelijk gecorreleerde ruis aanpakt. Op de Mayo Clinic 2016 low-dose CT-dataset presteert F2N 4,59 dB PSNR beter dan de toonaangevende zelfgesuperviseerde methode met één afbeelding (ZS-N2N), terwijl het transparantie, gebruikerscontrole en parametrische efficiëntie verbetert. Deze functies bieden belangrijke voordelen voor medische toepassingen die precieze en interpreteerbare ruisreductie vereisen. Onze code wordt gedemonstreerd op https://github.com/sypsyp97/Filter2Noise.git.
English
Effective denoising is crucial in low-dose CT to enhance subtle structures and low-contrast lesions while preventing diagnostic errors. Supervised methods struggle with limited paired datasets, and self-supervised approaches often require multiple noisy images and rely on deep networks like U-Net, offering little insight into the denoising mechanism. To address these challenges, we propose an interpretable self-supervised single-image denoising framework -- Filter2Noise (F2N). Our approach introduces an Attention-Guided Bilateral Filter that adapted to each noisy input through a lightweight module that predicts spatially varying filter parameters, which can be visualized and adjusted post-training for user-controlled denoising in specific regions of interest. To enable single-image training, we introduce a novel downsampling shuffle strategy with a new self-supervised loss function that extends the concept of Noise2Noise to a single image and addresses spatially correlated noise. On the Mayo Clinic 2016 low-dose CT dataset, F2N outperforms the leading self-supervised single-image method (ZS-N2N) by 4.59 dB PSNR while improving transparency, user control, and parametric efficiency. These features provide key advantages for medical applications that require precise and interpretable noise reduction. Our code is demonstrated at https://github.com/sypsyp97/Filter2Noise.git .

Summary

AI-Generated Summary

PDF12April 21, 2025