GCC: Generatieve Kleurconstantie via Diffusie van een Kleurkaart
GCC: Generative Color Constancy via Diffusing a Color Checker
February 24, 2025
Auteurs: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI
Samenvatting
Kleurconstantiemethoden hebben vaak moeite om te generaliseren over verschillende camerasensoren vanwege variërende spectrale gevoeligheden. Wij presenteren GCC, dat diffusiemodellen benut om kleurkaarten in afbeeldingen in te vullen voor belichtingsschatting. Onze belangrijkste innovaties omvatten (1) een deterministische inferentiebenadering in één stap die kleurkaarten invult die de scènebelichting weerspiegelen, (2) een Laplaciaanse decompositietechniek die de structuur van de kleurkaart behoudt terwijl kleuradaptatie afhankelijk van de belichting mogelijk is, en (3) een masker-gebaseerde data-augmentatiestrategie voor het omgaan met onnauwkeurige annotaties van kleurkaarten. GCC toont superieure robuustheid in cross-camerascenario's en behaalt state-of-the-art slechtste-25% foutmarges van 5,15° en 4,32° in bidirectionele evaluaties. Deze resultaten benadrukken de stabiliteit en generalisatiecapaciteit van onze methode over verschillende camerakarakteristieken zonder sensorspecifieke training, wat het een veelzijdige oplossing maakt voor real-world toepassingen.
English
Color constancy methods often struggle to generalize across different camera
sensors due to varying spectral sensitivities. We present GCC, which leverages
diffusion models to inpaint color checkers into images for illumination
estimation. Our key innovations include (1) a single-step deterministic
inference approach that inpaints color checkers reflecting scene illumination,
(2) a Laplacian decomposition technique that preserves checker structure while
allowing illumination-dependent color adaptation, and (3) a mask-based data
augmentation strategy for handling imprecise color checker annotations. GCC
demonstrates superior robustness in cross-camera scenarios, achieving
state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in
bi-directional evaluations. These results highlight our method's stability and
generalization capability across different camera characteristics without
requiring sensor-specific training, making it a versatile solution for
real-world applications.Summary
AI-Generated Summary