ChatPaper.aiChatPaper

InstructVideo: Istruire Modelli di Diffusione Video con Feedback Umano

InstructVideo: Instructing Video Diffusion Models with Human Feedback

December 19, 2023
Autori: Hangjie Yuan, Shiwei Zhang, Xiang Wang, Yujie Wei, Tao Feng, Yining Pan, Yingya Zhang, Ziwei Liu, Samuel Albanie, Dong Ni
cs.AI

Abstract

I modelli di diffusione sono emersi come il paradigma de facto per la generazione di video. Tuttavia, la loro dipendenza da dati su scala web di qualità variabile spesso produce risultati visivamente poco attraenti e disallineati rispetto ai prompt testuali. Per affrontare questo problema, proponiamo InstructVideo per istruire i modelli di diffusione testo-video con feedback umano attraverso il fine-tuning basato su ricompensa. InstructVideo si basa su due elementi chiave: 1) Per ridurre il costo del fine-tuning indotto dalla generazione attraverso l'intera catena di campionamento DDIM, riformuliamo il fine-tuning come un'operazione di editing. Sfruttando il processo di diffusione per corrompere un video campionato, InstructVideo richiede solo un'inferenza parziale della catena di campionamento DDIM, riducendo il costo del fine-tuning e migliorandone l'efficienza. 2) Per ovviare all'assenza di un modello di ricompensa video dedicato alle preferenze umane, riadattiamo modelli di ricompensa per immagini consolidati, come HPSv2. A tal fine, proponiamo Segmental Video Reward, un meccanismo per fornire segnali di ricompensa basati su campionamento sparso segmentale, e Temporally Attenuated Reward, un metodo che mitiga il degrado della modellazione temporale durante il fine-tuning. Esperimenti estensivi, sia qualitativi che quantitativi, convalidano la praticità e l'efficacia dell'utilizzo di modelli di ricompensa per immagini in InstructVideo, migliorando significativamente la qualità visiva dei video generati senza compromettere le capacità di generalizzazione. Codice e modelli saranno resi pubblicamente disponibili.
English
Diffusion models have emerged as the de facto paradigm for video generation. However, their reliance on web-scale data of varied quality often yields results that are visually unappealing and misaligned with the textual prompts. To tackle this problem, we propose InstructVideo to instruct text-to-video diffusion models with human feedback by reward fine-tuning. InstructVideo has two key ingredients: 1) To ameliorate the cost of reward fine-tuning induced by generating through the full DDIM sampling chain, we recast reward fine-tuning as editing. By leveraging the diffusion process to corrupt a sampled video, InstructVideo requires only partial inference of the DDIM sampling chain, reducing fine-tuning cost while improving fine-tuning efficiency. 2) To mitigate the absence of a dedicated video reward model for human preferences, we repurpose established image reward models, e.g., HPSv2. To this end, we propose Segmental Video Reward, a mechanism to provide reward signals based on segmental sparse sampling, and Temporally Attenuated Reward, a method that mitigates temporal modeling degradation during fine-tuning. Extensive experiments, both qualitative and quantitative, validate the practicality and efficacy of using image reward models in InstructVideo, significantly enhancing the visual quality of generated videos without compromising generalization capabilities. Code and models will be made publicly available.
PDF181December 15, 2024