ChatPaper.aiChatPaper

Beschneiden überparametrisierter Multi-Task-Netzwerke zur Restaurierung degradierter Web-Bilder

Pruning Overparameterized Multi-Task Networks for Degraded Web Image Restoration

October 16, 2025
papers.authors: Thomas Katraouras, Dimitrios Rafailidis
cs.AI

papers.abstract

Die Bildqualität ist ein entscheidender Faktor für die Bereitstellung visuell ansprechender Inhalte auf Webplattformen. Allerdings leiden Bilder häufig unter Qualitätseinbußen aufgrund verlustbehafteter Operationen, die von Online-Social-Networks (OSNs) angewendet werden, was die Benutzererfahrung negativ beeinflusst. Bildrestaurierung ist der Prozess der Wiederherstellung eines sauberen, hochwertigen Bildes aus einem gegebenen degradierten Eingabebild. In letzter Zeit haben Multi-Task- (All-in-One-) Bildrestaurierungsmodelle aufgrund ihrer Fähigkeit, verschiedene Arten von Bilddegradationen gleichzeitig zu bewältigen, erhebliche Aufmerksamkeit erlangt. Diese Modelle weisen jedoch oft eine übermäßig hohe Anzahl trainierbarer Parameter auf, was sie rechenineffizient macht. In diesem Artikel schlagen wir eine Strategie zur Komprimierung von Multi-Task-Bildrestaurierungsmodellen vor. Unser Ziel ist es, hochgradig spärliche Teilnetzwerke innerhalb überparametrisierter tiefer Modelle zu entdecken, die die Leistung ihrer dichten Gegenstücke erreichen oder sogar übertreffen können. Das vorgeschlagene Modell, MIR-L, nutzt eine iterative Beschneidungsstrategie, die in mehreren Runden Gewichte mit geringer Magnitude entfernt, während die verbleibenden Gewichte auf ihre ursprüngliche Initialisierung zurückgesetzt werden. Dieser iterative Prozess ist entscheidend für die Optimierung des Multi-Task-Bildrestaurierungsmodells und deckt effektiv „Gewinnertickets“ auf, die bei hohen Sparsamkeitsniveaus die state-of-the-art-Leistung beibehalten oder übertreffen. Die experimentelle Auswertung auf Benchmark-Datensätzen für die Aufgaben der Entregnung, Entnebelung und Rauschunterdrückung zeigt, dass MIR-L nur 10 % der trainierbaren Parameter beibehält und dabei eine hohe Bildrestaurierungsleistung aufrechterhält. Unser Code, Datensätze und vortrainierte Modelle sind öffentlich unter https://github.com/Thomkat/MIR-L verfügbar.
English
Image quality is a critical factor in delivering visually appealing content on web platforms. However, images often suffer from degradation due to lossy operations applied by online social networks (OSNs), negatively affecting user experience. Image restoration is the process of recovering a clean high-quality image from a given degraded input. Recently, multi-task (all-in-one) image restoration models have gained significant attention, due to their ability to simultaneously handle different types of image degradations. However, these models often come with an excessively high number of trainable parameters, making them computationally inefficient. In this paper, we propose a strategy for compressing multi-task image restoration models. We aim to discover highly sparse subnetworks within overparameterized deep models that can match or even surpass the performance of their dense counterparts. The proposed model, namely MIR-L, utilizes an iterative pruning strategy that removes low-magnitude weights across multiple rounds, while resetting the remaining weights to their original initialization. This iterative process is important for the multi-task image restoration model's optimization, effectively uncovering "winning tickets" that maintain or exceed state-of-the-art performance at high sparsity levels. Experimental evaluation on benchmark datasets for the deraining, dehazing, and denoising tasks shows that MIR-L retains only 10% of the trainable parameters while maintaining high image restoration performance. Our code, datasets and pre-trained models are made publicly available at https://github.com/Thomkat/MIR-L.
PDF22October 22, 2025