Beschneiden überparametrisierter Multi-Task-Netzwerke zur Restaurierung degradierter Web-Bilder
Pruning Overparameterized Multi-Task Networks for Degraded Web Image Restoration
October 16, 2025
papers.authors: Thomas Katraouras, Dimitrios Rafailidis
cs.AI
papers.abstract
Die Bildqualität ist ein entscheidender Faktor für die Bereitstellung visuell ansprechender Inhalte auf Webplattformen. Allerdings leiden Bilder häufig unter Qualitätseinbußen aufgrund verlustbehafteter Operationen, die von Online-Social-Networks (OSNs) angewendet werden, was die Benutzererfahrung negativ beeinflusst. Bildrestaurierung ist der Prozess der Wiederherstellung eines sauberen, hochwertigen Bildes aus einem gegebenen degradierten Eingabebild. In letzter Zeit haben Multi-Task- (All-in-One-) Bildrestaurierungsmodelle aufgrund ihrer Fähigkeit, verschiedene Arten von Bilddegradationen gleichzeitig zu bewältigen, erhebliche Aufmerksamkeit erlangt. Diese Modelle weisen jedoch oft eine übermäßig hohe Anzahl trainierbarer Parameter auf, was sie rechenineffizient macht. In diesem Artikel schlagen wir eine Strategie zur Komprimierung von Multi-Task-Bildrestaurierungsmodellen vor. Unser Ziel ist es, hochgradig spärliche Teilnetzwerke innerhalb überparametrisierter tiefer Modelle zu entdecken, die die Leistung ihrer dichten Gegenstücke erreichen oder sogar übertreffen können. Das vorgeschlagene Modell, MIR-L, nutzt eine iterative Beschneidungsstrategie, die in mehreren Runden Gewichte mit geringer Magnitude entfernt, während die verbleibenden Gewichte auf ihre ursprüngliche Initialisierung zurückgesetzt werden. Dieser iterative Prozess ist entscheidend für die Optimierung des Multi-Task-Bildrestaurierungsmodells und deckt effektiv „Gewinnertickets“ auf, die bei hohen Sparsamkeitsniveaus die state-of-the-art-Leistung beibehalten oder übertreffen. Die experimentelle Auswertung auf Benchmark-Datensätzen für die Aufgaben der Entregnung, Entnebelung und Rauschunterdrückung zeigt, dass MIR-L nur 10 % der trainierbaren Parameter beibehält und dabei eine hohe Bildrestaurierungsleistung aufrechterhält. Unser Code, Datensätze und vortrainierte Modelle sind öffentlich unter https://github.com/Thomkat/MIR-L verfügbar.
English
Image quality is a critical factor in delivering visually appealing content
on web platforms. However, images often suffer from degradation due to lossy
operations applied by online social networks (OSNs), negatively affecting user
experience. Image restoration is the process of recovering a clean high-quality
image from a given degraded input. Recently, multi-task (all-in-one) image
restoration models have gained significant attention, due to their ability to
simultaneously handle different types of image degradations. However, these
models often come with an excessively high number of trainable parameters,
making them computationally inefficient. In this paper, we propose a strategy
for compressing multi-task image restoration models. We aim to discover highly
sparse subnetworks within overparameterized deep models that can match or even
surpass the performance of their dense counterparts. The proposed model, namely
MIR-L, utilizes an iterative pruning strategy that removes low-magnitude
weights across multiple rounds, while resetting the remaining weights to their
original initialization. This iterative process is important for the multi-task
image restoration model's optimization, effectively uncovering "winning
tickets" that maintain or exceed state-of-the-art performance at high sparsity
levels. Experimental evaluation on benchmark datasets for the deraining,
dehazing, and denoising tasks shows that MIR-L retains only 10% of the
trainable parameters while maintaining high image restoration performance. Our
code, datasets and pre-trained models are made publicly available at
https://github.com/Thomkat/MIR-L.