ChatPaper.aiChatPaper

PhyRPR: Trainingsvrije, natuurkundig beperkte videogeneratie

PhyRPR: Training-Free Physics-Constrained Video Generation

January 14, 2026
Auteurs: Yibo Zhao, Hengjia Li, Xiaofei He, Boxi Wu
cs.AI

Samenvatting

Recente op diffusie gebaseerde videogeneratiemodellen kunnen visueel plausibele video's synthetiseren, maar worstelen vaak met het voldoen aan fysische randvoorwaarden. Een belangrijke reden is dat de meeste bestaande benaderingen enkelstaps blijven: zij verstrengelen hoogwaardig fysisch begrip met laagwaardige visuele synthese, waardoor het lastig is om inhoud te genereren die expliciete fysische redenering vereist. Om deze beperking aan te pakken, stellen wij een trainingsvrije driestaps pijplijn voor, PhyRPR: PhyReason–PhyPlan–PhyRefine, die fysisch begrip ontkoppelt van visuele synthese. Concreet gebruikt PhyReason een groot multimodaal model voor fysische toestandsredenering en een beeldgenerator voor keyframe-synthese; PhyPlan synthetiseert deterministisch een bestuurbaar grof bewegingsraamwerk; en PhyRefine injecteert dit raamwerk via een latente fusiestrategie in diffusiebemonstering om de verschijning te verfijnen terwijl de geplande dynamiek behouden blijft. Deze gefaseerde ontwerp maakt expliciete fysische controle tijdens generatie mogelijk. Uitgebreide experimenten onder fysische randvoorwaarden tonen aan dat onze methode consistent de fysische plausibiliteit en bewegingsbestuurbaarheid verbetert.
English
Recent diffusion-based video generation models can synthesize visually plausible videos, yet they often struggle to satisfy physical constraints. A key reason is that most existing approaches remain single-stage: they entangle high-level physical understanding with low-level visual synthesis, making it hard to generate content that require explicit physical reasoning. To address this limitation, we propose a training-free three-stage pipeline,PhyRPR:Phy\uline{Reason}--Phy\uline{Plan}--Phy\uline{Refine}, which decouples physical understanding from visual synthesis. Specifically, PhyReason uses a large multimodal model for physical state reasoning and an image generator for keyframe synthesis; PhyPlan deterministically synthesizes a controllable coarse motion scaffold; and PhyRefine injects this scaffold into diffusion sampling via a latent fusion strategy to refine appearance while preserving the planned dynamics. This staged design enables explicit physical control during generation. Extensive experiments under physics constraints show that our method consistently improves physical plausibility and motion controllability.
PDF33February 27, 2026