GCC: Constância de Cor Generativa via Difusão de um Cartão de Cores
GCC: Generative Color Constancy via Diffusing a Color Checker
February 24, 2025
Autores: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI
Resumo
Os métodos de constância de cor frequentemente enfrentam dificuldades para generalizar entre diferentes sensores de câmera devido às variações nas sensibilidades espectrais. Apresentamos o GCC, que utiliza modelos de difusão para preencher cartões de cores em imagens para estimação de iluminação. Nossas principais inovações incluem (1) uma abordagem de inferência determinística em etapa única que preenche cartões de cores refletindo a iluminação da cena, (2) uma técnica de decomposição Laplaciana que preserva a estrutura do cartão enquanto permite a adaptação de cores dependente da iluminação, e (3) uma estratégia de aumento de dados baseada em máscara para lidar com anotações imprecisas de cartões de cores. O GCC demonstra robustez superior em cenários de câmeras cruzadas, alcançando taxas de erro dos piores 25% de 5,15° e 4,32° em avaliações bidirecionais. Esses resultados destacam a estabilidade e a capacidade de generalização do nosso método em diferentes características de câmera sem a necessidade de treinamento específico para o sensor, tornando-o uma solução versátil para aplicações do mundo real.
English
Color constancy methods often struggle to generalize across different camera
sensors due to varying spectral sensitivities. We present GCC, which leverages
diffusion models to inpaint color checkers into images for illumination
estimation. Our key innovations include (1) a single-step deterministic
inference approach that inpaints color checkers reflecting scene illumination,
(2) a Laplacian decomposition technique that preserves checker structure while
allowing illumination-dependent color adaptation, and (3) a mask-based data
augmentation strategy for handling imprecise color checker annotations. GCC
demonstrates superior robustness in cross-camera scenarios, achieving
state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in
bi-directional evaluations. These results highlight our method's stability and
generalization capability across different camera characteristics without
requiring sensor-specific training, making it a versatile solution for
real-world applications.Summary
AI-Generated Summary