GCC: カラーチェッカー拡散による生成的色恒常性
GCC: Generative Color Constancy via Diffusing a Color Checker
February 24, 2025
著者: Chen-Wei Chang, Cheng-De Fan, Chia-Che Chang, Yi-Chen Lo, Yu-Chee Tseng, Jiun-Long Huang, Yu-Lun Liu
cs.AI
要旨
カラーコンスタンシー手法は、カメラセンサーのスペクトル感度の違いにより、異なるセンサー間での汎化に苦戦することが多い。本論文では、拡散モデルを活用して照明推定のためのカラーチェッカーを画像にインペイントするGCCを提案する。主な革新点は、(1) シーン照明を反映したカラーチェッカーをインペイントする単一ステップの決定論的推論アプローチ、(2) チェッカー構造を保ちつつ照明依存の色適応を可能にするラプラシアン分解手法、(3) 不正確なカラーチェッカー注釈を処理するためのマスクベースのデータ拡張戦略である。GCCは、クロスカメラシナリオにおいて優れたロバスト性を示し、双方向評価でワースト25%誤差率5.15°と4.32°という最先端の結果を達成した。これらの結果は、センサー固有のトレーニングを必要とせず、異なるカメラ特性にわたる本手法の安定性と汎化能力を強調しており、実世界のアプリケーションにおける汎用的なソリューションとしての可能性を示している。
English
Color constancy methods often struggle to generalize across different camera
sensors due to varying spectral sensitivities. We present GCC, which leverages
diffusion models to inpaint color checkers into images for illumination
estimation. Our key innovations include (1) a single-step deterministic
inference approach that inpaints color checkers reflecting scene illumination,
(2) a Laplacian decomposition technique that preserves checker structure while
allowing illumination-dependent color adaptation, and (3) a mask-based data
augmentation strategy for handling imprecise color checker annotations. GCC
demonstrates superior robustness in cross-camera scenarios, achieving
state-of-the-art worst-25% error rates of 5.15{\deg} and 4.32{\deg} in
bi-directional evaluations. These results highlight our method's stability and
generalization capability across different camera characteristics without
requiring sensor-specific training, making it a versatile solution for
real-world applications.