ChatPaper.aiChatPaper

GCC: Constância de Cor Generativa via Difusão de um Cartão de Cores

GCC: Generative Color Constancy via Diffusing a Color Checker

February 24, 2025
Autores: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI

Resumo

Os métodos de constância de cor frequentemente enfrentam dificuldades para generalizar entre diferentes sensores de câmera devido às variações nas sensibilidades espectrais. Apresentamos o GCC, que utiliza modelos de difusão para preencher cartões de cores em imagens para estimação de iluminação. Nossas principais inovações incluem (1) uma abordagem de inferência determinística em etapa única que preenche cartões de cores refletindo a iluminação da cena, (2) uma técnica de decomposição Laplaciana que preserva a estrutura do cartão enquanto permite a adaptação de cores dependente da iluminação, e (3) uma estratégia de aumento de dados baseada em máscara para lidar com anotações imprecisas de cartões de cores. O GCC demonstra robustez superior em cenários de câmeras cruzadas, alcançando taxas de erro dos piores 25% de 5,15° e 4,32° em avaliações bidirecionais. Esses resultados destacam a estabilidade e a capacidade de generalização do nosso método em diferentes características de câmera sem a necessidade de treinamento específico para o sensor, tornando-o uma solução versátil para aplicações do mundo real.
English
Color constancy methods often struggle to generalize across different camera sensors due to varying spectral sensitivities. We present GCC, which leverages diffusion models to inpaint color checkers into images for illumination estimation. Our key innovations include (1) a single-step deterministic inference approach that inpaints color checkers reflecting scene illumination, (2) a Laplacian decomposition technique that preserves checker structure while allowing illumination-dependent color adaptation, and (3) a mask-based data augmentation strategy for handling imprecise color checker annotations. GCC demonstrates superior robustness in cross-camera scenarios, achieving state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in bi-directional evaluations. These results highlight our method's stability and generalization capability across different camera characteristics without requiring sensor-specific training, making it a versatile solution for real-world applications.

Summary

AI-Generated Summary

PDF282February 25, 2025