STIV: Generazione Scalabile di Video Condizionati da Testo e ImmaginiSTIV: Scalable Text and Image Conditioned Video Generation
Il campo della generazione di video ha fatto progressi notevoli, tuttavia c'è ancora un urgente bisogno di una ricetta chiara e sistematica che possa guidare lo sviluppo di modelli robusti e scalabili. In questo lavoro, presentiamo uno studio esaustivo che esplora sistematicamente l'interazione delle architetture dei modelli, delle ricette di addestramento e delle strategie di cura dei dati, culminando in un metodo di generazione di video condizionato da testo e immagine semplice e scalabile, chiamato STIV. Il nostro framework integra la condizione dell'immagine in un Diffusion Transformer (DiT) attraverso la sostituzione dei frame, incorporando contemporaneamente la condizione del testo tramite una guida gratuita di un classificatore condizionato immagine-testo congiunto. Questo design consente a STIV di eseguire contemporaneamente compiti di testo-a-video (T2V) e testo-immagine-a-video (TI2V). Inoltre, STIV può essere facilmente esteso a varie applicazioni, come la previsione video, l'interpolazione dei frame, la generazione multi-vista e la generazione di video lunghi, ecc. Con studi esaustivi sull'ablativo di T2I, T2V e TI2V, STIV dimostra prestazioni solide, nonostante il suo design semplice. Un modello di 8,7 miliardi con risoluzione 512 raggiunge 83,1 su VBench T2V, superando sia i modelli leader open source che closed source come CogVideoX-5B, Pika, Kling e Gen-3. Lo stesso modello di dimensioni simili raggiunge anche un risultato all'avanguardia del 90,1 sul compito I2V di VBench a 512 risoluzione. Fornendo una ricetta trasparente ed estensibile per la costruzione di modelli di generazione video all'avanguardia, miriamo a potenziare la ricerca futura e ad accelerare il progresso verso soluzioni di generazione video più versatili e affidabili.