ChatPaper.aiChatPaper

Vous le voyez, vous l'obtenez : Apprentissage de la création 3D sur des vidéos sans pose à grande échelle

You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale

December 9, 2024
Auteurs: Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
cs.AI

Résumé

Les modèles récents de génération 3D s'appuient généralement sur des "gold-labels" 3D à petite échelle ou des prédictions de diffusion 2D pour la création de contenu 3D. Cependant, leur performance est limitée par des contraintes 3D en raison du manque de paradigmes d'apprentissage évolutifs. Dans ce travail, nous présentons See3D, un modèle de diffusion multi-vue conditionnel visuel entraîné sur de grandes vidéos Internet à des fins de création 3D en monde ouvert. Le modèle vise à acquérir des connaissances 3D en observant uniquement le contenu visuel des vastes et rapidement croissantes données vidéo - Vous le voyez, vous l'obtenez. Pour ce faire, nous avons d'abord augmenté l'ensemble de données d'entraînement à l'aide d'un pipeline de curation de données proposé qui filtre automatiquement les incohérences multi-vues et les observations insuffisantes des vidéos sources. Cela a permis d'obtenir un ensemble de données multi-vues de haute qualité, riche et diversifié à grande échelle, appelé WebVi3D, contenant 320 millions de trames issues de 16 millions de clips vidéo. Néanmoins, apprendre des prédictions 3D génériques à partir de vidéos sans géométrie 3D explicite ou annotations de pose de caméra est complexe, et annoter les poses pour des vidéos à l'échelle du web est excessivement coûteux. Pour éliminer le besoin de conditions de pose, nous introduisons un signal visuel conditionnel innovant - un signal visuel purement inductif 2D généré en ajoutant du bruit dépendant du temps aux données vidéo masquées. Enfin, nous présentons un nouveau cadre de génération 3D conditionnel visuel en intégrant See3D dans un pipeline basé sur le warping pour une génération 3D haute fidélité. Nos comparaisons numériques et visuelles sur des référentiels de reconstruction unique et clairsemée montrent que See3D, entraîné sur des données vidéo rentables et évolutives, atteint des capacités de génération notable en zéro-shot et en monde ouvert, surpassant nettement les modèles entraînés sur des ensembles de données 3D coûteux et contraignants. Veuillez consulter notre page de projet à l'adresse : https://vision.baai.ac.cn/see3d
English
Recent 3D generation models typically rely on limited-scale 3D `gold-labels' or 2D diffusion priors for 3D content creation. However, their performance is upper-bounded by constrained 3D priors due to the lack of scalable learning paradigms. In this work, we present See3D, a visual-conditional multi-view diffusion model trained on large-scale Internet videos for open-world 3D creation. The model aims to Get 3D knowledge by solely Seeing the visual contents from the vast and rapidly growing video data -- You See it, You Got it. To achieve this, we first scale up the training data using a proposed data curation pipeline that automatically filters out multi-view inconsistencies and insufficient observations from source videos. This results in a high-quality, richly diverse, large-scale dataset of multi-view images, termed WebVi3D, containing 320M frames from 16M video clips. Nevertheless, learning generic 3D priors from videos without explicit 3D geometry or camera pose annotations is nontrivial, and annotating poses for web-scale videos is prohibitively expensive. To eliminate the need for pose conditions, we introduce an innovative visual-condition - a purely 2D-inductive visual signal generated by adding time-dependent noise to the masked video data. Finally, we introduce a novel visual-conditional 3D generation framework by integrating See3D into a warping-based pipeline for high-fidelity 3D generation. Our numerical and visual comparisons on single and sparse reconstruction benchmarks show that See3D, trained on cost-effective and scalable video data, achieves notable zero-shot and open-world generation capabilities, markedly outperforming models trained on costly and constrained 3D datasets. Please refer to our project page at: https://vision.baai.ac.cn/see3d

Summary

AI-Generated Summary

PDF133December 10, 2024