ChatPaper.aiChatPaper

Herziening van beeldfusie voor witbalanscorrectie bij meerdere lichtbronnen

Revisiting Image Fusion for Multi-Illuminant White-Balance Correction

March 18, 2025
Auteurs: David Serrano-Lozano, Aditya Arora, Luis Herranz, Konstantinos G. Derpanis, Michael S. Brown, Javier Vazquez-Corral
cs.AI

Samenvatting

Witbalanscorrectie (WB) in scènes met meerdere lichtbronnen blijft een hardnekkige uitdaging in computervisie. Recente methoden hebben fusiegebaseerde benaderingen onderzocht, waarbij een neuraal netwerk meerdere sRGB-versies van een invoerbeeld lineair combineert, elk verwerkt met vooraf gedefinieerde WB-instellingen. Wij tonen echter aan dat deze methoden suboptimaal zijn voor veelvoorkomende scenario's met meerdere lichtbronnen. Bovendien vertrouwen bestaande fusiegebaseerde methoden op sRGB WB-datasets die geen specifieke afbeeldingen met meerdere lichtbronnen bevatten, wat zowel de training als de evaluatie beperkt. Om deze uitdagingen aan te pakken, introduceren we twee belangrijke bijdragen. Ten eerste stellen we een efficiënt transformermodel voor dat ruimtelijke afhankelijkheden tussen sRGB WB-instellingen effectief vastlegt, wat een aanzienlijke verbetering biedt ten opzichte van lineaire fusietechnieken. Ten tweede introduceren we een grootschalige dataset met meerdere lichtbronnen, bestaande uit meer dan 16.000 sRGB-afbeeldingen gerenderd met vijf verschillende WB-instellingen, samen met WB-gecorrigeerde afbeeldingen. Onze methode behaalt tot 100% verbetering ten opzichte van bestaande technieken op onze nieuwe dataset voor beeldfusie met meerdere lichtbronnen.
English
White balance (WB) correction in scenes with multiple illuminants remains a persistent challenge in computer vision. Recent methods explored fusion-based approaches, where a neural network linearly blends multiple sRGB versions of an input image, each processed with predefined WB presets. However, we demonstrate that these methods are suboptimal for common multi-illuminant scenarios. Additionally, existing fusion-based methods rely on sRGB WB datasets lacking dedicated multi-illuminant images, limiting both training and evaluation. To address these challenges, we introduce two key contributions. First, we propose an efficient transformer-based model that effectively captures spatial dependencies across sRGB WB presets, substantially improving upon linear fusion techniques. Second, we introduce a large-scale multi-illuminant dataset comprising over 16,000 sRGB images rendered with five different WB settings, along with WB-corrected images. Our method achieves up to 100\% improvement over existing techniques on our new multi-illuminant image fusion dataset.

Summary

AI-Generated Summary

PDF12March 25, 2025