ChatPaper.aiChatPaper

Du siehst es, du hast es: Lernen der 3D-Erstellung in posefreien Videos im großen Maßstab

You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale

December 9, 2024
Autoren: Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
cs.AI

Zusammenfassung

Aktuelle 3D-Generationsmodelle stützen sich in der Regel auf 3D-"Gold-Labels" in begrenztem Maßstab oder 2D-Diffusionsprioritäten für die Erstellung von 3D-Inhalten. Ihre Leistung ist jedoch durch begrenzte 3D-Prioritäten begrenzt, aufgrund des Mangels an skalierbaren Lernparadigmen. In dieser Arbeit präsentieren wir See3D, ein visuell bedingtes Multi-View-Diffusionsmodell, das auf groß angelegten Internetvideos für die Erstellung von 3D-Inhalten in einer offenen Welt trainiert wurde. Das Modell zielt darauf ab, 3D-Wissen zu erlangen, indem es ausschließlich die visuellen Inhalte aus den umfangreichen und schnell wachsenden Videodaten sieht - Du siehst es, du hast es. Um dies zu erreichen, skalieren wir zunächst die Trainingsdaten mithilfe eines vorgeschlagenen Datenkuratierungspipelines, die automatisch Mehrblick-Inkonsistenzen und unzureichende Beobachtungen aus den Quellvideos filtert. Dies führt zu einem hochwertigen, reichhaltig vielfältigen, groß angelegten Datensatz von Multi-View-Bildern, genannt WebVi3D, der 320 Millionen Frames aus 16 Millionen Videoclips enthält. Dennoch ist es nicht trivial, generische 3D-Prioritäten aus Videos ohne explizite 3D-Geometrie oder Kamerapositionsanmerkungen zu lernen, und die Annotierung von Posen für webbasierte Videos ist unerschwinglich teuer. Um die Notwendigkeit von Posenbedingungen zu beseitigen, führen wir ein innovatives visuelles Kondition - ein rein 2D-induktives visuelles Signal ein, das durch das Hinzufügen von zeitabhängigem Rauschen zu den maskierten Videodaten erzeugt wird. Schließlich stellen wir ein neuartiges visuell bedingtes 3D-Generationsframework vor, indem wir See3D in eine auf Verzerrungen basierende Pipeline für hochwertige 3D-Generierung integrieren. Unsere numerischen und visuellen Vergleiche bei Einzel- und spärlichen Rekonstruktionsbenchmarks zeigen, dass See3D, das auf kostengünstigen und skalierbaren Videodaten trainiert wurde, bemerkenswerte Zero-Shot- und Open-World-Generierungsfähigkeiten erreicht und Modelle übertrifft, die auf teuren und begrenzten 3D-Datensätzen trainiert wurden. Bitte besuchen Sie unsere Projektseite unter: https://vision.baai.ac.cn/see3d
English
Recent 3D generation models typically rely on limited-scale 3D `gold-labels' or 2D diffusion priors for 3D content creation. However, their performance is upper-bounded by constrained 3D priors due to the lack of scalable learning paradigms. In this work, we present See3D, a visual-conditional multi-view diffusion model trained on large-scale Internet videos for open-world 3D creation. The model aims to Get 3D knowledge by solely Seeing the visual contents from the vast and rapidly growing video data -- You See it, You Got it. To achieve this, we first scale up the training data using a proposed data curation pipeline that automatically filters out multi-view inconsistencies and insufficient observations from source videos. This results in a high-quality, richly diverse, large-scale dataset of multi-view images, termed WebVi3D, containing 320M frames from 16M video clips. Nevertheless, learning generic 3D priors from videos without explicit 3D geometry or camera pose annotations is nontrivial, and annotating poses for web-scale videos is prohibitively expensive. To eliminate the need for pose conditions, we introduce an innovative visual-condition - a purely 2D-inductive visual signal generated by adding time-dependent noise to the masked video data. Finally, we introduce a novel visual-conditional 3D generation framework by integrating See3D into a warping-based pipeline for high-fidelity 3D generation. Our numerical and visual comparisons on single and sparse reconstruction benchmarks show that See3D, trained on cost-effective and scalable video data, achieves notable zero-shot and open-world generation capabilities, markedly outperforming models trained on costly and constrained 3D datasets. Please refer to our project page at: https://vision.baai.ac.cn/see3d

Summary

AI-Generated Summary

PDF133December 10, 2024