ChatPaper.aiChatPaper

VideoRF: Dynamische Radiance Fields als 2D-Feature-Videostreams rendern

VideoRF: Rendering Dynamic Radiance Fields as 2D Feature Video Streams

December 3, 2023
Autoren: Liao Wang, Kaixin Yao, Chengcheng Guo, Zhirui Zhang, Qiang Hu, Jingyi Yu, Lan Xu, Minye Wu
cs.AI

Zusammenfassung

Neural Radiance Fields (NeRFs) zeichnen sich durch die fotorealistische Darstellung statischer Szenen aus. Die Wiedergabe dynamischer, lang andauernder Radiance Fields auf allgegenwärtigen Geräten bleibt jedoch aufgrund von Datenspeicherung und Rechenbeschränkungen eine Herausforderung. In diesem Artikel stellen wir VideoRF vor, den ersten Ansatz, der das Echtzeit-Streaming und Rendering dynamischer Radiance Fields auf mobilen Plattformen ermöglicht. Im Kern steht ein serialisierter 2D-Feature-Bildstrom, der das 4D-Radiance Field in einem darstellt. Wir führen ein speziell angepasstes Trainingsschema ein, das direkt auf diesen 2D-Bereich angewendet wird, um die zeitliche und räumliche Redundanz des Feature-Bildstroms zu gewährleisten. Durch die Nutzung dieser Redundanz zeigen wir, dass der Feature-Bildstrom effizient mit 2D-Videocodecs komprimiert werden kann, was es uns ermöglicht, Video-Hardwarebeschleuniger zu nutzen, um eine Echtzeit-Dekodierung zu erreichen. Andererseits schlagen wir basierend auf dem Feature-Bildstrom eine neuartige Rendering-Pipeline für VideoRF vor, die spezialisierte Raumabbildungen verwendet, um Radiance-Eigenschaften effizient abzufragen. In Kombination mit einem Deferred-Shading-Modell ermöglicht VideoRF dank seiner Effizienz das Echtzeit-Rendering auf mobilen Geräten. Wir haben einen Echtzeit-Interaktiven-Player entwickelt, der das Online-Streaming und Rendering dynamischer Szenen ermöglicht und ein nahtloses und immersives Free-Viewpoint-Erlebnis über eine Reihe von Geräten hinweg bietet, von Desktops bis hin zu Mobiltelefonen.
English
Neural Radiance Fields (NeRFs) excel in photorealistically rendering static scenes. However, rendering dynamic, long-duration radiance fields on ubiquitous devices remains challenging, due to data storage and computational constraints. In this paper, we introduce VideoRF, the first approach to enable real-time streaming and rendering of dynamic radiance fields on mobile platforms. At the core is a serialized 2D feature image stream representing the 4D radiance field all in one. We introduce a tailored training scheme directly applied to this 2D domain to impose the temporal and spatial redundancy of the feature image stream. By leveraging the redundancy, we show that the feature image stream can be efficiently compressed by 2D video codecs, which allows us to exploit video hardware accelerators to achieve real-time decoding. On the other hand, based on the feature image stream, we propose a novel rendering pipeline for VideoRF, which has specialized space mappings to query radiance properties efficiently. Paired with a deferred shading model, VideoRF has the capability of real-time rendering on mobile devices thanks to its efficiency. We have developed a real-time interactive player that enables online streaming and rendering of dynamic scenes, offering a seamless and immersive free-viewpoint experience across a range of devices, from desktops to mobile phones.
PDF93December 15, 2024