ChatPaper.aiChatPaper

SIGNeRF: 신경 방사 필드를 위한 장면 통합 생성

SIGNeRF: Scene Integrated Generation for Neural Radiance Fields

January 3, 2024
저자: Jan-Niklas Dihlmann, Andreas Engelhardt, Hendrik Lensch
cs.AI

초록

이미지 확산 모델의 발전은 최근 고품질 이미지 생성에서 주목할 만한 개선을 이끌어냈습니다. 신경 방사 필드(NeRF)와 결합하여, 이들은 3D 생성 분야에서 새로운 기회를 열었습니다. 그러나 대부분의 생성적 3D 접근법은 객체 중심적이며, 이를 기존의 사실적인 장면 편집에 적용하는 것은 간단하지 않습니다. 우리는 SIGNeRF를 제안합니다. 이는 빠르고 제어 가능한 NeRF 장면 편집 및 장면 통합 객체 생성을 위한 새로운 접근법입니다. 새로운 생성적 업데이트 전략은 반복적인 최적화 없이도 편집된 이미지 간의 3D 일관성을 보장합니다. 우리는 깊이 조건화된 확산 모델이 단일 뷰 대신 이미지 그리드를 요청함으로써 3D 일관된 뷰를 생성할 수 있는 능력을 내재하고 있음을 발견했습니다. 이러한 통찰을 바탕으로, 우리는 수정된 이미지의 다중 뷰 참조 시트를 도입합니다. 우리의 방법은 참조 시트를 기반으로 이미지 컬렉션을 일관되게 업데이트하고, 새로 생성된 이미지 세트로 원래의 NeRF를 한 번에 정제합니다. 이미지 확산 모델의 깊이 조건화 메커니즘을 활용함으로써, 우리는 편집의 공간적 위치에 대한 세밀한 제어를 얻고, 선택된 영역 또는 외부 메시에 의해 형상 가이드를 강제합니다.
English
Advances in image diffusion models have recently led to notable improvements in the generation of high-quality images. In combination with Neural Radiance Fields (NeRFs), they enabled new opportunities in 3D generation. However, most generative 3D approaches are object-centric and applying them to editing existing photorealistic scenes is not trivial. We propose SIGNeRF, a novel approach for fast and controllable NeRF scene editing and scene-integrated object generation. A new generative update strategy ensures 3D consistency across the edited images, without requiring iterative optimization. We find that depth-conditioned diffusion models inherently possess the capability to generate 3D consistent views by requesting a grid of images instead of single views. Based on these insights, we introduce a multi-view reference sheet of modified images. Our method updates an image collection consistently based on the reference sheet and refines the original NeRF with the newly generated image set in one go. By exploiting the depth conditioning mechanism of the image diffusion model, we gain fine control over the spatial location of the edit and enforce shape guidance by a selected region or an external mesh.
PDF131December 15, 2024