ChatPaper.aiChatPaper

LightIt: Verlichtingsmodellering en -controle voor diffusiemodellen

LightIt: Illumination Modeling and Control for Diffusion Models

March 15, 2024
Auteurs: Peter Kocsis, Julien Philip, Kalyan Sunkavalli, Matthias Nießner, Yannick Hold-Geoffroy
cs.AI

Samenvatting

We introduceren LightIt, een methode voor expliciete belichtingscontrole bij beeldgeneratie. Recente generatieve methoden missen belichtingscontrole, wat cruciaal is voor tal van artistieke aspecten van beeldgeneratie, zoals het bepalen van de algehele sfeer of cinematografische uitstraling. Om deze beperkingen te overwinnen, stellen we voor om de generatie te conditioneren op schaduw- en normaal kaarten. We modelleren de belichting met enkelvoudige reflectieschaduw, inclusief slagschaduwen. We trainen eerst een schattingsmodule voor schaduw om een dataset van real-world beelden en schaduwparen te genereren. Vervolgens trainen we een controle netwerk met behulp van de geschatte schaduw en normalen als invoer. Onze methode toont hoogwaardige beeldgeneratie en belichtingscontrole in talrijke scènes. Daarnaast gebruiken we onze gegenereerde dataset om een identiteitsbehoudend herbelichtingsmodel te trainen, geconditioneerd op een beeld en een doel schaduw. Onze methode is de eerste die de generatie van beelden met controleerbare, consistente belichting mogelijk maakt en presteert op het niveau van gespecialiseerde state-of-the-art herbelichtingsmethoden.
English
We introduce LightIt, a method for explicit illumination control for image generation. Recent generative methods lack lighting control, which is crucial to numerous artistic aspects of image generation such as setting the overall mood or cinematic appearance. To overcome these limitations, we propose to condition the generation on shading and normal maps. We model the lighting with single bounce shading, which includes cast shadows. We first train a shading estimation module to generate a dataset of real-world images and shading pairs. Then, we train a control network using the estimated shading and normals as input. Our method demonstrates high-quality image generation and lighting control in numerous scenes. Additionally, we use our generated dataset to train an identity-preserving relighting model, conditioned on an image and a target shading. Our method is the first that enables the generation of images with controllable, consistent lighting and performs on par with specialized relighting state-of-the-art methods.
PDF181December 15, 2024