WorldFlow3D: Stromen door 3D-distributies voor Onbegrensde Wereldgeneratie
WorldFlow3D: Flowing Through 3D Distributions for Unbounded World Generation
March 31, 2026
Auteurs: Amogh Joshi, Julian Ost, Felix Heide
cs.AI
Samenvatting
Onbeperkte 3D-wereldgeneratie komt naar voren als een fundamentele taak voor scènemodellering in computervisie, grafische technieken en robotica. In dit werk presenteren we WorldFlow3D, een nieuwe methode die in staat is om onbeperkte 3D-werelden te genereren. Voortbordurend op een fundamentele eigenschap van flow matching - namelijk het definiëren van een transportpad tussen twee dataverdelingen - modelleren we 3D-generatie algemener als een probleem van stroming door 3D-dataverdelingen, niet beperkt tot conditionele denoisering. Wij constateren dat onze latentievrije flow-aanpak causale en accurate 3D-structuur genereert, en dit kan gebruiken als een tussenverdeling om de generatie van complexere structuur en hoogwaardige textuur te sturen - allemaal terwijl het sneller convergeert dan bestaande methoden. Wij maken controleerbaarheid over gegenereerde scènes mogelijk met gevectoriseerde scènelay-outcondities voor geometrische structuurcontrole en visuele textuurcontrole via scène-attributen. Wij bevestigen de effectiviteit van WorldFlow3D op zowel echte buitenrijscènes als synthetische binnenscènes, waarbij cross-domein generaliseerbaarheid en hoogwaardige generatie op echte dataverdelingen worden gevalideerd. Wij constateren een gunstige scènegeneratiefideliteit ten opzichte van benaderingen in alle geteste settings voor onbeperkte scènegeneratie. Voor meer informatie, zie https://light.princeton.edu/worldflow3d.
English
Unbounded 3D world generation is emerging as a foundational task for scene modeling in computer vision, graphics, and robotics. In this work, we present WorldFlow3D, a novel method capable of generating unbounded 3D worlds. Building upon a foundational property of flow matching - namely, defining a path of transport between two data distributions - we model 3D generation more generally as a problem of flowing through 3D data distributions, not limited to conditional denoising. We find that our latent-free flow approach generates causal and accurate 3D structure, and can use this as an intermediate distribution to guide the generation of more complex structure and high-quality texture - all while converging more rapidly than existing methods. We enable controllability over generated scenes with vectorized scene layout conditions for geometric structure control and visual texture control through scene attributes. We confirm the effectiveness of WorldFlow3D on both real outdoor driving scenes and synthetic indoor scenes, validating cross-domain generalizability and high-quality generation on real data distributions. We confirm favorable scene generation fidelity over approaches in all tested settings for unbounded scene generation. For more, see https://light.princeton.edu/worldflow3d.