ChatPaper.aiChatPaper

ATT3D: Амортизированный синтез 3D-объектов из текста

ATT3D: Amortized Text-to-3D Object Synthesis

June 6, 2023
Авторы: Jonathan Lorraine, Kevin Xie, Xiaohui Zeng, Chen-Hsuan Lin, Towaki Takikawa, Nicholas Sharp, Tsung-Yi Lin, Ming-Yu Liu, Sanja Fidler, James Lucas
cs.AI

Аннотация

Моделирование 3D-объектов на основе текста достигло значительного прогресса благодаря сочетанию генеративных моделей "текст-изображение" с методами "изображение-3D", такими как Neural Radiance Fields. DreamFusion недавно продемонстрировал высококачественные результаты, но требует длительной оптимизации для каждого отдельного текстового запроса при создании 3D-объектов. Чтобы решить эту проблему, мы применяем амортизацию оптимизации для текстовых запросов, обучая модель одновременно на множестве запросов с использованием единой модели вместо раздельной обработки. Это позволяет разделять вычисления между набором запросов, сокращая время обучения по сравнению с оптимизацией для каждого запроса. Наша структура — Amortized Text-to-3D (ATT3D) — обеспечивает обмен знаниями между запросами, что позволяет обобщать подход для новых сценариев и создавать плавные интерполяции между текстами для генерации новых объектов и простых анимаций.
English
Text-to-3D modelling has seen exciting progress by combining generative text-to-image models with image-to-3D methods like Neural Radiance Fields. DreamFusion recently achieved high-quality results but requires a lengthy, per-prompt optimization to create 3D objects. To address this, we amortize optimization over text prompts by training on many prompts simultaneously with a unified model, instead of separately. With this, we share computation across a prompt set, training in less time than per-prompt optimization. Our framework - Amortized text-to-3D (ATT3D) - enables knowledge-sharing between prompts to generalize to unseen setups and smooth interpolations between text for novel assets and simple animations.
PDF101December 15, 2024