ChatPaper.aiChatPaper

Analyses des erreurs des modèles de diffusion vidéo auto-régressifs : un cadre unifié

Error Analyses of Auto-Regressive Video Diffusion Models: A Unified Framework

March 12, 2025
Auteurs: Jing Wang, Fengzhuo Zhang, Xiaoli Li, Vincent Y. F. Tan, Tianyu Pang, Chao Du, Aixin Sun, Zhuoran Yang
cs.AI

Résumé

Une variété de modèles de diffusion vidéo auto-régressifs (ARVDM) a obtenu des succès remarquables dans la génération de vidéos longues réalistes. Cependant, les analyses théoriques de ces modèles restent rares. Dans ce travail, nous développons des fondements théoriques pour ces modèles et utilisons nos insights pour améliorer les performances des modèles existants. Nous commençons par développer Meta-ARVDM, un cadre unifié pour les ARVDM qui englobe la plupart des méthodes existantes. En utilisant Meta-ARVDM, nous analysons la divergence KL entre les vidéos générées par Meta-ARVDM et les vidéos réelles. Notre analyse révèle deux phénomènes importants inhérents aux ARVDM : l'accumulation d'erreurs et le goulot d'étranglement de la mémoire. En dérivant un résultat d'impossibilité information-théorique, nous montrons que le phénomène de goulot d'étranglement de la mémoire ne peut être évité. Pour atténuer ce goulot d'étranglement, nous concevons diverses structures de réseau pour utiliser explicitement plus de trames passées. Nous obtenons également un compromis significativement amélioré entre l'atténuation du goulot d'étranglement de la mémoire et l'efficacité de l'inférence en compressant les trames. Les résultats expérimentaux sur DMLab et Minecraft valident l'efficacité de nos méthodes. Nos expériences démontrent également une frontière de Pareto entre l'accumulation d'erreurs et le goulot d'étranglement de la mémoire à travers différentes méthodes.
English
A variety of Auto-Regressive Video Diffusion Models (ARVDM) have achieved remarkable successes in generating realistic long-form videos. However, theoretical analyses of these models remain scant. In this work, we develop theoretical underpinnings for these models and use our insights to improve the performance of existing models. We first develop Meta-ARVDM, a unified framework of ARVDMs that subsumes most existing methods. Using Meta-ARVDM, we analyze the KL-divergence between the videos generated by Meta-ARVDM and the true videos. Our analysis uncovers two important phenomena inherent to ARVDM -- error accumulation and memory bottleneck. By deriving an information-theoretic impossibility result, we show that the memory bottleneck phenomenon cannot be avoided. To mitigate the memory bottleneck, we design various network structures to explicitly use more past frames. We also achieve a significantly improved trade-off between the mitigation of the memory bottleneck and the inference efficiency by compressing the frames. Experimental results on DMLab and Minecraft validate the efficacy of our methods. Our experiments also demonstrate a Pareto-frontier between the error accumulation and memory bottleneck across different methods.

Summary

AI-Generated Summary

PDF52March 18, 2025