ChatPaper.aiChatPaper

HyperFields: 텍스트로부터 NeRF의 제로샷 생성을 위한 접근

HyperFields: Towards Zero-Shot Generation of NeRFs from Text

October 26, 2023
저자: Sudarshan Babu, Richard Liu, Avery Zhou, Michael Maire, Greg Shakhnarovich, Rana Hanocka
cs.AI

초록

본 논문에서는 텍스트 조건부 신경 방사 필드(Neural Radiance Fields, NeRFs)를 단일 순방향 전달과 (선택적으로) 일부 미세 조정을 통해 생성하는 방법인 HyperFields를 소개한다. 우리의 접근법의 핵심은 다음과 같다: (i) 텍스트 토큰 임베딩에서 NeRFs 공간으로의 매끄러운 매핑을 학습하는 동적 하이퍼네트워크; (ii) 개별 NeRFs에 인코딩된 장면들을 하나의 동적 하이퍼네트워크로 증류하는 NeRF 증류 학습. 이러한 기술들은 단일 네트워크가 수백 개의 고유한 장면에 적합하도록 한다. 또한, HyperFields가 텍스트와 NeRFs 사이의 보다 일반적인 매핑을 학습함으로써, 분포 내 및 분포 외의 새로운 장면을 제로샷 또는 몇 번의 미세 조정 단계를 통해 예측할 수 있음을 보여준다. 학습된 일반 매핑 덕분에 HyperFields의 미세 조정은 가속화된 수렴을 이점으로 가지며, 기존의 신경 최적화 기반 방법보다 5~10배 빠르게 새로운 장면을 합성할 수 있다. 우리의 제거 실험은 동적 아키텍처와 NeRF 증류가 HyperFields의 표현력에 있어 모두 중요함을 보여준다.
English
We introduce HyperFields, a method for generating text-conditioned Neural Radiance Fields (NeRFs) with a single forward pass and (optionally) some fine-tuning. Key to our approach are: (i) a dynamic hypernetwork, which learns a smooth mapping from text token embeddings to the space of NeRFs; (ii) NeRF distillation training, which distills scenes encoded in individual NeRFs into one dynamic hypernetwork. These techniques enable a single network to fit over a hundred unique scenes. We further demonstrate that HyperFields learns a more general map between text and NeRFs, and consequently is capable of predicting novel in-distribution and out-of-distribution scenes -- either zero-shot or with a few finetuning steps. Finetuning HyperFields benefits from accelerated convergence thanks to the learned general map, and is capable of synthesizing novel scenes 5 to 10 times faster than existing neural optimization-based methods. Our ablation experiments show that both the dynamic architecture and NeRF distillation are critical to the expressivity of HyperFields.
PDF152December 15, 2024