Sketch2NeRF: Генерация 3D-моделей из текста с использованием многовидовых набросков
Sketch2NeRF: Multi-view Sketch-guided Text-to-3D Generation
January 25, 2024
Авторы: Minglin Chen, Longguang Wang, Weihao Yuan, Yukun Wang, Zhe Sheng, Yisheng He, Zilong Dong, Liefeng Bo, Yulan Guo
cs.AI
Аннотация
В последнее время подходы, преобразующие текст в 3D, достигли генерации высококачественного 3D-контента с использованием текстовых описаний. Однако создаваемые объекты носят стохастический характер и не обладают детализированным контролем. Эскизы представляют собой простой способ внедрения такого детализированного контроля. Тем не менее, достижение гибкого управления на основе этих эскизов является сложной задачей из-за их абстрактности и неоднозначности. В данной статье мы представляем фреймворк для генерации 3D-контента с управлением через эскизы на основе нескольких видов (а именно, Sketch2NeRF), который добавляет контроль через эскизы к процессу 3D-генерации. В частности, наш метод использует предобученные 2D диффузионные модели (например, Stable Diffusion и ControlNet) для контроля оптимизации 3D-сцены, представленной нейронным полем излучения (NeRF). Мы предлагаем новый метод синхронизированной генерации и реконструкции для эффективной оптимизации NeRF. В экспериментах мы собрали два набора данных с эскизами на основе нескольких видов для оценки предложенного метода. Мы демонстрируем, что наш метод способен синтезировать 3D-контент с сохранением согласованности и детализированным контролем через эскизы, оставаясь при этом высокоточным по отношению к текстовым запросам. Многочисленные результаты показывают, что наш метод достигает наилучших показателей по сходству с эскизами и соответствию тексту.
English
Recently, text-to-3D approaches have achieved high-fidelity 3D content
generation using text description. However, the generated objects are
stochastic and lack fine-grained control. Sketches provide a cheap approach to
introduce such fine-grained control. Nevertheless, it is challenging to achieve
flexible control from these sketches due to their abstraction and ambiguity. In
this paper, we present a multi-view sketch-guided text-to-3D generation
framework (namely, Sketch2NeRF) to add sketch control to 3D generation.
Specifically, our method leverages pretrained 2D diffusion models (e.g., Stable
Diffusion and ControlNet) to supervise the optimization of a 3D scene
represented by a neural radiance field (NeRF). We propose a novel synchronized
generation and reconstruction method to effectively optimize the NeRF. In the
experiments, we collected two kinds of multi-view sketch datasets to evaluate
the proposed method. We demonstrate that our method can synthesize 3D
consistent contents with fine-grained sketch control while being high-fidelity
to text prompts. Extensive results show that our method achieves
state-of-the-art performance in terms of sketch similarity and text alignment.