Generación de Video HDR mediante Alineación Latente con Codificación Logarítmica
HDR Video Generation via Latent Alignment with Logarithmic Encoding
April 13, 2026
Autores: Naomi Ken Korem, Mohamed Oumoumad, Harel Cain, Matan Ben Yosef, Urska Jelercic, Ofir Bibi, Yaron Inger, Or Patashnik, Daniel Cohen-Or
cs.AI
Resumen
La imagen de alto rango dinámico (HDR) ofrece una representación rica y fiel de la radiancia de la escena, pero sigue siendo un desafío para los modelos generativos debido a su desajuste con los datos acotados y comprimidos perceptualmentes en los que se entrenan estos modelos. Una solución natural es aprender nuevas representaciones para HDR, lo que introduce complejidad adicional y requisitos de datos. En este trabajo, demostramos que la generación de HDR puede lograrse de una manera mucho más simple aprovechando los fuertes *priors* visuales ya capturados por modelos generativos preentrenados. Observamos que una codificación logarítmica ampliamente utilizada en los flujos de trabajo cinematográficos mapea la imagen HDR a una distribución que está naturalmente alineada con el espacio latente de estos modelos, permitiendo una adaptación directa mediante un ajuste fino ligero sin necesidad de reentrenar un codificador. Para recuperar detalles que no son directamente observables en la entrada, introducimos además una estrategia de entrenamiento basada en degradaciones que imitan a la cámara, lo que incentiva al modelo a inferir el contenido faltante de alto rango dinámico a partir de sus *priors* aprendidos. Combinando estas ideas, demostramos la generación de video HDR de alta calidad utilizando un modelo de video preentrenado con una adaptación mínima, logrando resultados sólidos en diversas escenas y condiciones de iluminación desafiantes. Nuestros resultados indican que el HDR, a pesar de representar un régimen de formación de imagen fundamentalmente diferente, puede manejarse eficazmente sin rediseñar los modelos generativos, siempre que la representación se elija para alinearse con sus *priors* aprendidos.
English
High dynamic range (HDR) imagery offers a rich and faithful representation of scene radiance, but remains challenging for generative models due to its mismatch with the bounded, perceptually compressed data on which these models are trained. A natural solution is to learn new representations for HDR, which introduces additional complexity and data requirements. In this work, we show that HDR generation can be achieved in a much simpler way by leveraging the strong visual priors already captured by pretrained generative models. We observe that a logarithmic encoding widely used in cinematic pipelines maps HDR imagery into a distribution that is naturally aligned with the latent space of these models, enabling direct adaptation via lightweight fine-tuning without retraining an encoder. To recover details that are not directly observable in the input, we further introduce a training strategy based on camera-mimicking degradations that encourages the model to infer missing high dynamic range content from its learned priors. Combining these insights, we demonstrate high-quality HDR video generation using a pretrained video model with minimal adaptation, achieving strong results across diverse scenes and challenging lighting conditions. Our results indicate that HDR, despite representing a fundamentally different image formation regime, can be handled effectively without redesigning generative models, provided that the representation is chosen to align with their learned priors.