ChatPaper.aiChatPaper

UGC-VideoCaptioner: Een Omni UGC Video Detail Caption Model en Nieuwe Benchmarks

UGC-VideoCaptioner: An Omni UGC Video Detail Caption Model and New Benchmarks

July 15, 2025
Auteurs: Peiran Wu, Yunze Liu, Zhengdong Zhu, Enmin Zhou, Shawn Shen
cs.AI

Samenvatting

Real-world door gebruikers gegenereerde video's, vooral op platforms zoals TikTok, bevatten vaak rijke en verweven audiovisuele content. Bestaande benchmarks en modellen voor videobijschriften blijven echter voornamelijk visueel gericht, waarbij de cruciale rol van audio bij het overbrengen van scènedynamiek, sprekersintentie en narratieve context over het hoofd wordt gezien. Dit gebrek aan omni-datasets en lichte, capabele modellen belemmert de vooruitgang in fijnmazige, multimodale videobegrip. Om deze uitdagingen aan te pakken, introduceren we UGC-VideoCap, een nieuwe benchmark en modelraamwerk specifiek ontworpen voor gedetailleerde omnimodale bijschriften van kortdurende door gebruikers gegenereerde video's. In tegenstelling tot eerdere datasets, benadrukt UGC-VideoCap een gebalanceerde integratie van audio- en visuele modaliteiten, met 1000 TikTok-video's die zijn geannoteerd via een gestructureerd drietraps human-in-the-loop-proces dat audio alleen, visueel alleen en gezamenlijke audiovisuele semantiek omvat. De benchmark omvat ook 4000 zorgvuldig samengestelde vraag-antwoordparen die zowel unimodale als cross-modale begrip onderzoeken. Naast de dataset stellen we UGC-VideoCaptioner(3B) voor, een bijschriftenmodel met 3B parameters gedistilleerd uit Gemini 2.5 Flash. Met behulp van een nieuwe tweefasige trainingsstrategie - supervised fine-tuning gevolgd door Group Relative Policy Optimization (GRPO) - maakt onze aanpak efficiënte aanpassing mogelijk op basis van beperkte data, terwijl competitieve prestaties worden behouden. Samen bieden onze benchmark en model een hoogwaardige basis en een data-efficiënte oplossing voor het bevorderen van omnimodale videobijschriften in onbeperkte real-world UGC-omgevingen.
English
Real-world user-generated videos, especially on platforms like TikTok, often feature rich and intertwined audio visual content. However, existing video captioning benchmarks and models remain predominantly visual centric, overlooking the crucial role of audio in conveying scene dynamics, speaker intent, and narrative context. This lack of omni datasets and lightweight, capable models hampers progress in fine grained, multimodal video understanding. To address these challenges, we introduce UGC-VideoCap, a new benchmark and model framework specifically designed for detailed omnimodal captioning of short form user-generated videos. Unlike prior datasets, UGC-VideoCap emphasizes balanced integration of audio and visual modalities, featuring 1000 TikTok videos annotated through a structured three stage human-in-the-loop pipeline covering audio only, visual only, and joint audio visual semantics. The benchmark also includes 4000 carefully crafted QA pairs probing both unimodal and cross modal understanding. Alongside the dataset, we propose UGC-VideoCaptioner(3B), a 3B parameter captioning model distilled from Gemini 2.5 Flash. Using a novel two-stage training strategy supervised fine tuning followed by Group Relative Policy Optimization (GRPO), our approach enables efficient adaptation from limited data while maintaining competitive performance. Together, our benchmark and model offer a high-quality foundation and a data-efficient solution for advancing omnimodal video captioning in unconstrained real-world UGC settings.
PDF51July 16, 2025