ChatPaper.aiChatPaper

Vid2World: Modellazione di Sistemi di Diffusione Video per la Creazione di Modelli di Mondi Interattivi

Vid2World: Crafting Video Diffusion Models to Interactive World Models

May 20, 2025
Autori: Siqiao Huang, Jialong Wu, Qixing Zhou, Shangchen Miao, Mingsheng Long
cs.AI

Abstract

I modelli del mondo, che prevedono transizioni basate su sequenze di osservazioni storiche e azioni, hanno dimostrato un grande potenziale nel migliorare l'efficienza dei dati per il processo decisionale sequenziale. Tuttavia, i modelli del mondo esistenti spesso richiedono un addestramento estensivo specifico per dominio e producono ancora previsioni a bassa fedeltà e grossolane, limitando la loro applicabilità in ambienti complessi. Al contrario, i modelli di diffusione video addestrati su grandi dataset su scala internet hanno dimostrato capacità impressionanti nella generazione di video di alta qualità che catturano dinamiche diverse del mondo reale. In questo lavoro, presentiamo Vid2World, un approccio generale per sfruttare e trasferire modelli di diffusione video pre-addestrati in modelli del mondo interattivi. Per colmare il divario, Vid2World esegue la causalizzazione di un modello di diffusione video pre-addestrato progettando la sua architettura e l'obiettivo di addestramento per abilitare la generazione autoregressiva. Inoltre, introduce un meccanismo di guida causale delle azioni per migliorare la controllabilità delle azioni nel modello del mondo interattivo risultante. Esperimenti estesi nei domini della manipolazione robotica e della simulazione di giochi mostrano che il nostro metodo offre un approccio scalabile ed efficace per riutilizzare modelli di diffusione video altamente capaci in modelli del mondo interattivi.
English
World models, which predict transitions based on history observation and action sequences, have shown great promise in improving data efficiency for sequential decision making. However, existing world models often require extensive domain-specific training and still produce low-fidelity, coarse predictions, limiting their applicability in complex environments. In contrast, video diffusion models trained on large, internet-scale datasets have demonstrated impressive capabilities in generating high-quality videos that capture diverse real-world dynamics. In this work, we present Vid2World, a general approach for leveraging and transferring pre-trained video diffusion models into interactive world models. To bridge the gap, Vid2World performs casualization of a pre-trained video diffusion model by crafting its architecture and training objective to enable autoregressive generation. Furthermore, it introduces a causal action guidance mechanism to enhance action controllability in the resulting interactive world model. Extensive experiments in robot manipulation and game simulation domains show that our method offers a scalable and effective approach for repurposing highly capable video diffusion models to interactive world models.
PDF272May 22, 2025