ChatPaper.aiChatPaper

Universele Voorbereiding op Beeldherstel via Gemaskeerde Degradatieclassificatie

Universal Image Restoration Pre-training via Masked Degradation Classification

October 15, 2025
Auteurs: JiaKui Hu, Zhengjian Yao, Lujia Jin, Yinghao Chen, Yanye Lu
cs.AI

Samenvatting

Dit onderzoek introduceert een Masked Degradation Classification Pre-Training methode (MaskDCPT), ontworpen om de classificatie van degradatietypen in invoerbeelden te vergemakkelijken, wat leidt tot een uitgebreide voorafgaande training voor beeldherstel. In tegenstelling tot conventionele voorafgaande trainingsmethoden, gebruikt MaskDCPT het degradatietype van het beeld als een extreem zwakke supervisie, terwijl tegelijkertijd beeldreconstructie wordt benut om de prestaties en robuustheid te verbeteren. MaskDCPT omvat een encoder en twee decoders: de encoder extraheert kenmerken uit het gemaskeerde laagkwaliteitsinvoerbeeld. De classificatiedecoder gebruikt deze kenmerken om het degradatietype te identificeren, terwijl de reconstructiedecoder streeft naar het reconstrueren van een corresponderend hoogkwaliteitsbeeld. Dit ontwerp stelt de voorafgaande training in staat te profiteren van zowel gemaskeerde beeldmodellering als contrastief leren, wat resulteert in een gegeneraliseerde representatie die geschikt is voor hersteltaken. Dankzij de eenvoudige maar krachtige MaskDCPT kan de vooraf getrainde encoder worden gebruikt voor universeel beeldherstel en uitstekende prestaties behalen. De implementatie van MaskDCPT verbetert de prestaties aanzienlijk voor zowel convolutionele neurale netwerken (CNN's) als Transformers, met een minimale toename van 3,77 dB in PSNR bij de 5D all-in-one hersteltaak en een reductie van 34,8% in PIQE vergeleken met de baseline in realistische degradatiescenario's. Het vertoont ook een sterke generalisatie naar voorheen onbekende degradatietypen en -niveaus. Daarnaast hebben we de UIR-2.5M dataset samengesteld en vrijgegeven, die 2,5 miljoen gepaarde herstelvoorbeelden bevat over 19 degradatietypen en meer dan 200 degradatieniveaus, waarbij zowel synthetische als realistische data zijn opgenomen. De dataset, broncode en modellen zijn beschikbaar op https://github.com/MILab-PKU/MaskDCPT.
English
This study introduces a Masked Degradation Classification Pre-Training method (MaskDCPT), designed to facilitate the classification of degradation types in input images, leading to comprehensive image restoration pre-training. Unlike conventional pre-training methods, MaskDCPT uses the degradation type of the image as an extremely weak supervision, while simultaneously leveraging the image reconstruction to enhance performance and robustness. MaskDCPT includes an encoder and two decoders: the encoder extracts features from the masked low-quality input image. The classification decoder uses these features to identify the degradation type, whereas the reconstruction decoder aims to reconstruct a corresponding high-quality image. This design allows the pre-training to benefit from both masked image modeling and contrastive learning, resulting in a generalized representation suited for restoration tasks. Benefit from the straightforward yet potent MaskDCPT, the pre-trained encoder can be used to address universal image restoration and achieve outstanding performance. Implementing MaskDCPT significantly improves performance for both convolution neural networks (CNNs) and Transformers, with a minimum increase in PSNR of 3.77 dB in the 5D all-in-one restoration task and a 34.8% reduction in PIQE compared to baseline in real-world degradation scenarios. It also emergences strong generalization to previously unseen degradation types and levels. In addition, we curate and release the UIR-2.5M dataset, which includes 2.5 million paired restoration samples across 19 degradation types and over 200 degradation levels, incorporating both synthetic and real-world data. The dataset, source code, and models are available at https://github.com/MILab-PKU/MaskDCPT.
PDF102October 16, 2025