Вы видите это, вы получаете это: обучение созданию 3D на видео без учета позы в масштабе.
You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale
December 9, 2024
Авторы: Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
cs.AI
Аннотация
Современные модели генерации 3D-изображений обычно полагаются на ограниченные 3D-`золотые метки' или 2D-приоритеты диффузии для создания 3D-контента. Однако их производительность ограничена ограниченными 3D-приоритетами из-за отсутствия масштабируемых обучающих парадигм. В данной работе мы представляем See3D, визуально-условную многозрительную модель диффузии, обученную на крупномасштабных интернет-видео для создания 3D-изображений в открытом мире. Модель стремится получить знания о 3D, исключительно видя визуальный контент из обширных и быстрорастущих видеоданных - Вы видите это, Вы получаете это. Для достижения этой цели мы сначала увеличиваем обучающие данные с помощью предложенного конвейера курирования данных, который автоматически фильтрует многозрительные несоответствия и недостаточные наблюдения из исходных видео. Это приводит к высококачественному, богато разнообразному, крупномасштабному набору данных многозрительных изображений, названному WebVi3D, содержащему 320 млн кадров из 16 млн видеороликов. Тем не менее, обучение общих 3D-приоритетов из видео без явной 3D-геометрии или аннотаций камеры является нетривиальной задачей, и аннотация положений для видеороликов веб-масштаба является чрезмерно дорогостоящей. Чтобы устранить необходимость в условиях положения, мы представляем инновационный визуальный признак - чисто 2D-индуктивный визуальный сигнал, генерируемый путем добавления зависящего от времени шума к маскированным видеоданным. Наконец, мы представляем новую визуально-условную 3D-модель генерации, интегрируя See3D в основанную на искажениях конвейерную систему для создания 3D-изображений высокой точности. Наши численные и визуальные сравнения на одиночных и разреженных бенчмарках реконструкции показывают, что See3D, обученная на экономичных и масштабируемых видеоданных, достигает значительных возможностей генерации без обучения и создания в открытом мире, заметно превосходя модели, обученные на дорогостоящих и ограниченных 3D-наборах данных. Пожалуйста, обратитесь к нашей странице проекта по адресу: https://vision.baai.ac.cn/see3d
English
Recent 3D generation models typically rely on limited-scale 3D `gold-labels'
or 2D diffusion priors for 3D content creation. However, their performance is
upper-bounded by constrained 3D priors due to the lack of scalable learning
paradigms. In this work, we present See3D, a visual-conditional multi-view
diffusion model trained on large-scale Internet videos for open-world 3D
creation. The model aims to Get 3D knowledge by solely Seeing the visual
contents from the vast and rapidly growing video data -- You See it, You Got
it. To achieve this, we first scale up the training data using a proposed data
curation pipeline that automatically filters out multi-view inconsistencies and
insufficient observations from source videos. This results in a high-quality,
richly diverse, large-scale dataset of multi-view images, termed WebVi3D,
containing 320M frames from 16M video clips. Nevertheless, learning generic 3D
priors from videos without explicit 3D geometry or camera pose annotations is
nontrivial, and annotating poses for web-scale videos is prohibitively
expensive. To eliminate the need for pose conditions, we introduce an
innovative visual-condition - a purely 2D-inductive visual signal generated by
adding time-dependent noise to the masked video data. Finally, we introduce a
novel visual-conditional 3D generation framework by integrating See3D into a
warping-based pipeline for high-fidelity 3D generation. Our numerical and
visual comparisons on single and sparse reconstruction benchmarks show that
See3D, trained on cost-effective and scalable video data, achieves notable
zero-shot and open-world generation capabilities, markedly outperforming models
trained on costly and constrained 3D datasets. Please refer to our project page
at: https://vision.baai.ac.cn/see3dSummary
AI-Generated Summary