ChatPaper.aiChatPaper

Cross-Frame Representatie-Uitlijning voor Fine-Tuning van Video-Diffusiemodellen

Cross-Frame Representation Alignment for Fine-Tuning Video Diffusion Models

June 10, 2025
Auteurs: Sungwon Hwang, Hyojin Jang, Kinam Kim, Minho Park, Jaegul choo
cs.AI

Samenvatting

Het finetunen van Video Diffusion Models (VDMs) op gebruikersniveau om video's te genereren die specifieke kenmerken van de trainingsdata weerspiegelen, brengt aanzienlijke uitdagingen met zich mee, maar blijft ondanks het praktische belang onderbelicht. Ondertussen heeft recent werk, zoals Representation Alignment (REPA), veelbelovende resultaten laten zien in het verbeteren van de convergentie en kwaliteit van DiT-gebaseerde beelddiffusiemodellen door de interne verborgen toestanden af te stemmen op, of te assimileren met, externe vooraf getrainde visuele kenmerken, wat suggereert dat het potentieel heeft voor het finetunen van VDMs. In dit werk stellen we eerst een eenvoudige aanpassing van REPA voor VDMs voor en tonen empirisch aan dat, hoewel effectief voor convergentie, het suboptimaal is in het behouden van semantische consistentie tussen frames. Om deze beperking aan te pakken, introduceren we Cross-frame Representation Alignment (CREPA), een nieuwe regularisatietechniek die de verborgen toestanden van een frame afstemt op externe kenmerken van naburige frames. Empirische evaluaties op grootschalige VDMs, waaronder CogVideoX-5B en Hunyuan Video, tonen aan dat CREPA zowel de visuele kwaliteit als de semantische samenhang tussen frames verbetert wanneer het wordt gefinetuned met parameter-efficiënte methoden zoals LoRA. We valideren CREPA verder over diverse datasets met uiteenlopende kenmerken, wat de brede toepasbaarheid ervan bevestigt. Projectpagina: https://crepavideo.github.io
English
Fine-tuning Video Diffusion Models (VDMs) at the user level to generate videos that reflect specific attributes of training data presents notable challenges, yet remains underexplored despite its practical importance. Meanwhile, recent work such as Representation Alignment (REPA) has shown promise in improving the convergence and quality of DiT-based image diffusion models by aligning, or assimilating, its internal hidden states with external pretrained visual features, suggesting its potential for VDM fine-tuning. In this work, we first propose a straightforward adaptation of REPA for VDMs and empirically show that, while effective for convergence, it is suboptimal in preserving semantic consistency across frames. To address this limitation, we introduce Cross-frame Representation Alignment (CREPA), a novel regularization technique that aligns hidden states of a frame with external features from neighboring frames. Empirical evaluations on large-scale VDMs, including CogVideoX-5B and Hunyuan Video, demonstrate that CREPA improves both visual fidelity and cross-frame semantic coherence when fine-tuned with parameter-efficient methods such as LoRA. We further validate CREPA across diverse datasets with varying attributes, confirming its broad applicability. Project page: https://crepavideo.github.io
PDF32June 12, 2025