ChatPaper.aiChatPaper

Snoeien van Overgeparameteriseerde Multi-Taaknetwerken voor Herstel van Gedegradeerde Webafbeeldingen

Pruning Overparameterized Multi-Task Networks for Degraded Web Image Restoration

October 16, 2025
Auteurs: Thomas Katraouras, Dimitrios Rafailidis
cs.AI

Samenvatting

Beeldkwaliteit is een cruciale factor bij het leveren van visueel aantrekkelijke inhoud op webplatforms. Echter, beelden ondergaan vaak degradatie als gevolg van lossy bewerkingen die door online sociale netwerken (OSNs) worden toegepast, wat een negatieve invloed heeft op de gebruikerservaring. Beeldherstel is het proces van het herstellen van een schoon, hoogwaardig beeld vanuit een gegeven gedegradeerde input. Recentelijk hebben multi-task (all-in-one) beeldherstelmodellen aanzienlijke aandacht gekregen vanwege hun vermogen om verschillende soorten beelddegradaties gelijktijdig aan te pakken. Deze modellen hebben echter vaak een buitensporig hoog aantal trainbare parameters, waardoor ze rekenkundig inefficiënt zijn. In dit artikel stellen we een strategie voor om multi-task beeldherstelmodellen te comprimeren. We streven ernaar om zeer sparse subnetwerken te ontdekken binnen overgeparameteriseerde diepe modellen die de prestaties van hun dichte tegenhangers kunnen evenaren of zelfs overtreffen. Het voorgestelde model, genaamd MIR-L, maakt gebruik van een iteratieve pruningstrategie die gewichten met een lage magnitude over meerdere rondes verwijdert, terwijl de overgebleven gewichten worden gereset naar hun oorspronkelijke initialisatie. Dit iteratieve proces is belangrijk voor de optimalisatie van het multi-task beeldherstelmodel, waarbij effectief "winning tickets" worden ontdekt die de state-of-the-art prestaties behouden of overtreffen bij hoge sparsity-niveaus. Experimentele evaluatie op benchmarkdatasets voor de taken deraining, dehazing en denoising toont aan dat MIR-L slechts 10% van de trainbare parameters behoudt, terwijl het een hoge beeldherstelprestatie handhaaft. Onze code, datasets en vooraf getrainde modellen zijn publiekelijk beschikbaar gesteld op https://github.com/Thomkat/MIR-L.
English
Image quality is a critical factor in delivering visually appealing content on web platforms. However, images often suffer from degradation due to lossy operations applied by online social networks (OSNs), negatively affecting user experience. Image restoration is the process of recovering a clean high-quality image from a given degraded input. Recently, multi-task (all-in-one) image restoration models have gained significant attention, due to their ability to simultaneously handle different types of image degradations. However, these models often come with an excessively high number of trainable parameters, making them computationally inefficient. In this paper, we propose a strategy for compressing multi-task image restoration models. We aim to discover highly sparse subnetworks within overparameterized deep models that can match or even surpass the performance of their dense counterparts. The proposed model, namely MIR-L, utilizes an iterative pruning strategy that removes low-magnitude weights across multiple rounds, while resetting the remaining weights to their original initialization. This iterative process is important for the multi-task image restoration model's optimization, effectively uncovering "winning tickets" that maintain or exceed state-of-the-art performance at high sparsity levels. Experimental evaluation on benchmark datasets for the deraining, dehazing, and denoising tasks shows that MIR-L retains only 10% of the trainable parameters while maintaining high image restoration performance. Our code, datasets and pre-trained models are made publicly available at https://github.com/Thomkat/MIR-L.
PDF22October 22, 2025