ChatPaper.aiChatPaper

Хронология нейронных сцен

Neural Scene Chronology

June 13, 2023
Авторы: Haotong Lin, Qianqian Wang, Ruojin Cai, Sida Peng, Hadar Averbuch-Elor, Xiaowei Zhou, Noah Snavely
cs.AI

Аннотация

В данной работе мы стремимся восстановить изменяющуюся во времени 3D-модель, способную генерировать фотореалистичные изображения с независимым управлением точкой обзора, освещением и временем, на основе интернет-фотографий крупных достопримечательностей. Основные проблемы заключаются в следующем. Во-первых, различные типы временных изменений, такие как освещение и изменения самой сцены (например, замена одного граффити на другое), переплетены в изображениях. Во-вторых, изменения на уровне сцены часто носят дискретный и спорадический характер во времени, а не непрерывный. Для решения этих проблем мы предлагаем новое представление сцены, оснащенное методом кодирования временной ступенчатой функции, который может моделировать дискретные изменения содержания сцены как кусочно-постоянные функции времени. В частности, мы представляем сцену как пространственно-временное поле излучения с вложением освещения для каждого изображения, где временные изменения сцены кодируются с использованием набора обученных ступенчатых функций. Для облегчения задачи восстановления хронологии из интернет-изображений мы также собираем новый набор данных из четырех сцен, демонстрирующих различные изменения во времени. Мы показываем, что наш метод демонстрирует передовые результаты синтеза изображений на этом наборе данных, обеспечивая независимое управление точкой обзора, временем и освещением.
English
In this work, we aim to reconstruct a time-varying 3D model, capable of rendering photo-realistic renderings with independent control of viewpoint, illumination, and time, from Internet photos of large-scale landmarks. The core challenges are twofold. First, different types of temporal changes, such as illumination and changes to the underlying scene itself (such as replacing one graffiti artwork with another) are entangled together in the imagery. Second, scene-level temporal changes are often discrete and sporadic over time, rather than continuous. To tackle these problems, we propose a new scene representation equipped with a novel temporal step function encoding method that can model discrete scene-level content changes as piece-wise constant functions over time. Specifically, we represent the scene as a space-time radiance field with a per-image illumination embedding, where temporally-varying scene changes are encoded using a set of learned step functions. To facilitate our task of chronology reconstruction from Internet imagery, we also collect a new dataset of four scenes that exhibit various changes over time. We demonstrate that our method exhibits state-of-the-art view synthesis results on this dataset, while achieving independent control of viewpoint, time, and illumination.
PDF60December 15, 2024