ChatPaper.aiChatPaper

FlashTex: Быстрое текстурирование мешей с возможностью переосвещения с использованием LightControlNet

FlashTex: Fast Relightable Mesh Texturing with LightControlNet

February 20, 2024
Авторы: Kangle Deng, Timothy Omernick, Alexander Weiss, Deva Ramanan, Jun-Yan Zhu, Tinghui Zhou, Maneesh Agrawala
cs.AI

Аннотация

Ручное создание текстур для 3D-мешей является трудоемким процессом даже для опытных создателей визуального контента. Мы предлагаем быстрый подход для автоматического текстурирования входного 3D-меша на основе текстового запроса, предоставленного пользователем. Важно, что наш подход разделяет освещение и свойства поверхности/отражения в итоговой текстуре, что позволяет корректно переосвещать и визуализировать меш в любых условиях освещения. Мы представляем LightControlNet — новую текстово-изобразительную модель, основанную на архитектуре ControlNet, которая позволяет задавать желаемое освещение в виде управляющего изображения для модели. Наш текстово-текстурный конвейер создает текстуру в два этапа. На первом этапе с помощью LightControlNet генерируется разреженный набор визуально согласованных референсных видов меша. На втором этапе применяется оптимизация текстуры на основе метода Score Distillation Sampling (SDS), которая работает совместно с LightControlNet для повышения качества текстуры и разделения свойств поверхности и освещения. Наш конвейер значительно быстрее предыдущих методов текстово-текстурного преобразования, при этом создавая высококачественные и переосвещаемые текстуры.
English
Manually creating textures for 3D meshes is time-consuming, even for expert visual content creators. We propose a fast approach for automatically texturing an input 3D mesh based on a user-provided text prompt. Importantly, our approach disentangles lighting from surface material/reflectance in the resulting texture so that the mesh can be properly relit and rendered in any lighting environment. We introduce LightControlNet, a new text-to-image model based on the ControlNet architecture, which allows the specification of the desired lighting as a conditioning image to the model. Our text-to-texture pipeline then constructs the texture in two stages. The first stage produces a sparse set of visually consistent reference views of the mesh using LightControlNet. The second stage applies a texture optimization based on Score Distillation Sampling (SDS) that works with LightControlNet to increase the texture quality while disentangling surface material from lighting. Our pipeline is significantly faster than previous text-to-texture methods, while producing high-quality and relightable textures.
PDF151December 15, 2024