ChatPaper.aiChatPaper

GCC: Generatieve Kleurconstantie via Diffusie van een Kleurkaart

GCC: Generative Color Constancy via Diffusing a Color Checker

February 24, 2025
Auteurs: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI

Samenvatting

Kleurconstantiemethoden hebben vaak moeite om te generaliseren over verschillende camerasensoren vanwege variërende spectrale gevoeligheden. Wij presenteren GCC, dat diffusiemodellen benut om kleurkaarten in afbeeldingen in te vullen voor belichtingsschatting. Onze belangrijkste innovaties omvatten (1) een deterministische inferentiebenadering in één stap die kleurkaarten invult die de scènebelichting weerspiegelen, (2) een Laplaciaanse decompositietechniek die de structuur van de kleurkaart behoudt terwijl kleuradaptatie afhankelijk van de belichting mogelijk is, en (3) een masker-gebaseerde data-augmentatiestrategie voor het omgaan met onnauwkeurige annotaties van kleurkaarten. GCC toont superieure robuustheid in cross-camerascenario's en behaalt state-of-the-art slechtste-25% foutmarges van 5,15° en 4,32° in bidirectionele evaluaties. Deze resultaten benadrukken de stabiliteit en generalisatiecapaciteit van onze methode over verschillende camerakarakteristieken zonder sensorspecifieke training, wat het een veelzijdige oplossing maakt voor real-world toepassingen.
English
Color constancy methods often struggle to generalize across different camera sensors due to varying spectral sensitivities. We present GCC, which leverages diffusion models to inpaint color checkers into images for illumination estimation. Our key innovations include (1) a single-step deterministic inference approach that inpaints color checkers reflecting scene illumination, (2) a Laplacian decomposition technique that preserves checker structure while allowing illumination-dependent color adaptation, and (3) a mask-based data augmentation strategy for handling imprecise color checker annotations. GCC demonstrates superior robustness in cross-camera scenarios, achieving state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in bi-directional evaluations. These results highlight our method's stability and generalization capability across different camera characteristics without requiring sensor-specific training, making it a versatile solution for real-world applications.

Summary

AI-Generated Summary

PDF282February 25, 2025