ChatPaper.aiChatPaper

CCMNet: Использование калиброванных матриц цветокоррекции для обеспечения постоянства цвета между камерами

CCMNet: Leveraging Calibrated Color Correction Matrices for Cross-Camera Color Constancy

April 10, 2025
Авторы: Dongyoung Kim, Mahmoud Afifi, Dongyun Kim, Michael S. Brown, Seon Joo Kim
cs.AI

Аннотация

Вычислительное постоянство цвета, или баланс белого, является ключевым модулем в процессоре обработки изображений (ISP) камеры, который корректирует цветовые оттенки, вызванные освещением сцены. Поскольку эта операция выполняется в специфичном для камеры цветовом пространстве RAW, алгоритмы баланса белого должны адаптироваться к различным камерам. В данной статье представлен метод на основе обучения для кросс-камерного постоянства цвета, который обобщается на новые камеры без необходимости переобучения. Наш метод использует предварительно калиброванные матрицы цветокоррекции (CCM), доступные в ISP, которые отображают цветовое пространство RAW камеры в стандартное пространство (например, CIE XYZ). Наш метод использует эти CCM для преобразования предопределенных цветов освещения (например, вдоль планковского локуса) в цветовое пространство RAW тестовой камеры. Преобразованные источники освещения кодируются в компактное встраивание "отпечатка камеры" (CFE), что позволяет сети адаптироваться к неизвестным камерам. Чтобы предотвратить переобучение из-за ограниченного количества камер и CCM во время обучения, мы вводим технику аугментации данных, которая интерполирует между камерами и их CCM. Экспериментальные результаты на нескольких наборах данных и архитектурах показывают, что наш метод достигает передовых результатов в кросс-камерном постоянстве цвета, оставаясь легковесным и используя только данные, доступные в ISP камер.
English
Computational color constancy, or white balancing, is a key module in a camera's image signal processor (ISP) that corrects color casts from scene lighting. Because this operation occurs in the camera-specific raw color space, white balance algorithms must adapt to different cameras. This paper introduces a learning-based method for cross-camera color constancy that generalizes to new cameras without retraining. Our method leverages pre-calibrated color correction matrices (CCMs) available on ISPs that map the camera's raw color space to a standard space (e.g., CIE XYZ). Our method uses these CCMs to transform predefined illumination colors (i.e., along the Planckian locus) into the test camera's raw space. The mapped illuminants are encoded into a compact camera fingerprint embedding (CFE) that enables the network to adapt to unseen cameras. To prevent overfitting due to limited cameras and CCMs during training, we introduce a data augmentation technique that interpolates between cameras and their CCMs. Experimental results across multiple datasets and backbones show that our method achieves state-of-the-art cross-camera color constancy while remaining lightweight and relying only on data readily available in camera ISPs.

Summary

AI-Generated Summary

PDF112April 18, 2025