ChatPaper.aiChatPaper

UGC-VideoCaptioner: Un Modello Omnicomprensivo per la Descrizione di Dettagli nei Video UGC e Nuovi Benchmark

UGC-VideoCaptioner: An Omni UGC Video Detail Caption Model and New Benchmarks

July 15, 2025
Autori: Peiran Wu, Yunze Liu, Zhengdong Zhu, Enmin Zhou, Shawn Shen
cs.AI

Abstract

I video generati dagli utenti nel mondo reale, specialmente su piattaforme come TikTok, presentano spesso contenuti audio-visuali ricchi e intrecciati. Tuttavia, i benchmark e i modelli esistenti per la generazione di didascalie video rimangono prevalentemente centrati sull'aspetto visivo, trascurando il ruolo cruciale dell'audio nel trasmettere la dinamica della scena, l'intenzione del parlante e il contesto narrativo. Questa mancanza di dataset omnicomprensivi e di modelli leggeri ma capaci ostacola il progresso nella comprensione fine e multimodale dei video. Per affrontare queste sfide, introduciamo UGC-VideoCap, un nuovo benchmark e framework di modelli specificamente progettato per la generazione dettagliata di didascalie omnimodali per video brevi generati dagli utenti. A differenza dei dataset precedenti, UGC-VideoCap enfatizza l'integrazione bilanciata delle modalità audio e visiva, presentando 1000 video di TikTok annotati attraverso una pipeline strutturata in tre fasi con l'intervento umano, che copre la semantica solo audio, solo visiva e audio-visiva congiunta. Il benchmark include anche 4000 coppie di domande e risposte accuratamente progettate per esplorare sia la comprensione unimodale che quella cross-modale. Insieme al dataset, proponiamo UGC-VideoCaptioner(3B), un modello di generazione di didascalie da 3 miliardi di parametri distillato da Gemini 2.5 Flash. Utilizzando una nuova strategia di addestramento in due fasi — fine-tuning supervisionato seguito da Group Relative Policy Optimization (GRPO) — il nostro approccio consente un adattamento efficiente partendo da dati limitati, mantenendo al contempo prestazioni competitive. Insieme, il nostro benchmark e il modello offrono una base di alta qualità e una soluzione efficiente in termini di dati per far progredire la generazione di didascalie omnimodali in contesti reali e non vincolati di contenuti generati dagli utenti.
English
Real-world user-generated videos, especially on platforms like TikTok, often feature rich and intertwined audio visual content. However, existing video captioning benchmarks and models remain predominantly visual centric, overlooking the crucial role of audio in conveying scene dynamics, speaker intent, and narrative context. This lack of omni datasets and lightweight, capable models hampers progress in fine grained, multimodal video understanding. To address these challenges, we introduce UGC-VideoCap, a new benchmark and model framework specifically designed for detailed omnimodal captioning of short form user-generated videos. Unlike prior datasets, UGC-VideoCap emphasizes balanced integration of audio and visual modalities, featuring 1000 TikTok videos annotated through a structured three stage human-in-the-loop pipeline covering audio only, visual only, and joint audio visual semantics. The benchmark also includes 4000 carefully crafted QA pairs probing both unimodal and cross modal understanding. Alongside the dataset, we propose UGC-VideoCaptioner(3B), a 3B parameter captioning model distilled from Gemini 2.5 Flash. Using a novel two-stage training strategy supervised fine tuning followed by Group Relative Policy Optimization (GRPO), our approach enables efficient adaptation from limited data while maintaining competitive performance. Together, our benchmark and model offer a high-quality foundation and a data-efficient solution for advancing omnimodal video captioning in unconstrained real-world UGC settings.
PDF41July 16, 2025