ChatPaper.aiChatPaper

확산 안내 역 렌더링을 사용한 사실적 물체 삽입

Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering

August 19, 2024
저자: Ruofan Liang, Zan Gojcic, Merlin Nimier-David, David Acuna, Nandita Vijaykumar, Sanja Fidler, Zian Wang
cs.AI

초록

실제 세계 장면 이미지에 가상 객체를 올바르게 삽입하려면 장면의 조명, 기하 및 재질, 그리고 이미지 형성 과정에 대한 심층적인 이해가 필요합니다. 최근 대규모 확산 모델은 강력한 생성 및 보정 능력을 보여주었지만, 현재 모델은 단일 사진에 나타난 장면을 충분히 "이해"하지 못하여 일관된 조명 효과(그림자, 밝은 반사 등)를 생성하면서 합성된 객체의 신원과 세부 정보를 보존하지 못하는 것으로 판단됩니다. 우리는 물리 기반 역 렌더링 프로세스에 대한 개인화된 대규모 확산 모델을 안내로 사용하는 것을 제안합니다. 우리의 방법은 장면 조명 및 톤 매핑 매개변수를 복구하여 내부 또는 외부 장면의 단일 프레임 또는 비디오에 임의의 가상 객체를 사실적으로 합성할 수 있게 합니다. 물리 기반 파이프라인은 자동 재질 및 톤 매핑 세부 조정을 가능하게 합니다.
English
The correct insertion of virtual objects in images of real-world scenes requires a deep understanding of the scene's lighting, geometry and materials, as well as the image formation process. While recent large-scale diffusion models have shown strong generative and inpainting capabilities, we find that current models do not sufficiently "understand" the scene shown in a single picture to generate consistent lighting effects (shadows, bright reflections, etc.) while preserving the identity and details of the composited object. We propose using a personalized large diffusion model as guidance to a physically based inverse rendering process. Our method recovers scene lighting and tone-mapping parameters, allowing the photorealistic composition of arbitrary virtual objects in single frames or videos of indoor or outdoor scenes. Our physically based pipeline further enables automatic materials and tone-mapping refinement.

Summary

AI-Generated Summary

PDF112November 19, 2024