StereoWorld: Geometriebewusste Monokular-zu-Stereo-Videogenerierung
StereoWorld: Geometry-Aware Monocular-to-Stereo Video Generation
December 10, 2025
papers.authors: Ke Xing, Longfei Li, Yuyang Yin, Hanwen Liang, Guixun Luo, Chen Fang, Jue Wang, Konstantinos N. Plataniotis, Xiaojie Jin, Yao Zhao, Yunchao Wei
cs.AI
papers.abstract
Die zunehmende Verbreitung von XR-Geräten hat eine starke Nachfrage nach hochwertigen Stereo-Videos ausgelöst, deren Produktion jedoch nach wie vor kostspielig und anfällig für Artefakte ist. Um diese Herausforderung zu bewältigen, stellen wir StereoWorld vor, ein End-to-End-Framework, das einen vortrainierten Video-Generator für die hochpräzise monokulare-zu-stereo Videogenerierung adaptiert. Unser Framework konditioniert das Modell gemeinsam auf den monokularen Video-Input, während die Generierung explizit durch eine geometrie-bewusste Regularisierung überwacht wird, um die 3D-Strukturtreue zu gewährleisten. Ein räumlich-zeitliches Tiling-Schema ist weiterhin integriert, um eine effiziente Synthese in hoher Auflösung zu ermöglichen. Um Training und Evaluation im großen Maßstab zu ermöglichen, haben wir einen hochauflösenden Stereo-Video-Datensatz mit über 11 Millionen Einzelbildern kuratiert, die an den natürlichen menschlichen Augenabstand (IPD) angepasst sind. Umfangreiche Experimente belegen, dass StereoWorld bisherige Methoden erheblich übertrifft und Stereo-Videos mit überlegener visueller Qualität und geometrischer Konsistenz erzeugt. Die Projektwebseite ist unter https://ke-xing.github.io/StereoWorld/ verfügbar.
English
The growing adoption of XR devices has fueled strong demand for high-quality stereo video, yet its production remains costly and artifact-prone. To address this challenge, we present StereoWorld, an end-to-end framework that repurposes a pretrained video generator for high-fidelity monocular-to-stereo video generation. Our framework jointly conditions the model on the monocular video input while explicitly supervising the generation with a geometry-aware regularization to ensure 3D structural fidelity. A spatio-temporal tiling scheme is further integrated to enable efficient, high-resolution synthesis. To enable large-scale training and evaluation, we curate a high-definition stereo video dataset containing over 11M frames aligned to natural human interpupillary distance (IPD). Extensive experiments demonstrate that StereoWorld substantially outperforms prior methods, generating stereo videos with superior visual fidelity and geometric consistency. The project webpage is available at https://ke-xing.github.io/StereoWorld/.