ChatPaper.aiChatPaper

UGC-VideoCaptioner: Универсальная модель детализированного описания пользовательского видеоконтента и новые эталонные тесты

UGC-VideoCaptioner: An Omni UGC Video Detail Caption Model and New Benchmarks

July 15, 2025
Авторы: Peiran Wu, Yunze Liu, Zhengdong Zhu, Enmin Zhou, Shawn Shen
cs.AI

Аннотация

Пользовательские видео из реального мира, особенно на таких платформах, как TikTok, часто содержат богатый и взаимосвязанный аудиовизуальный контент. Однако существующие эталонные наборы данных и модели для создания видеозаголовков остаются преимущественно визуально-ориентированными, игнорируя ключевую роль аудио в передаче динамики сцены, намерений говорящего и контекста повествования. Отсутствие всеобъемлющих наборов данных и легковесных, но мощных моделей сдерживает прогресс в детализированном многомодальном понимании видео. Для решения этих проблем мы представляем UGC-VideoCap — новый эталонный набор данных и модель, специально разработанные для детального всеобъемлющего создания заголовков для коротких пользовательских видео. В отличие от предыдущих наборов данных, UGC-VideoCap делает акцент на сбалансированной интеграции аудио и визуальных модальностей, включая 1000 видео с TikTok, аннотированных с помощью структурированного трехэтапного процесса с участием человека, охватывающего семантику только аудио, только визуального контента и их совместного анализа. Набор данных также включает 4000 тщательно составленных пар вопросов и ответов, проверяющих как одномодальное, так и кросс-модальное понимание. Вместе с набором данных мы предлагаем UGC-VideoCaptioner(3B) — модель для создания заголовков с 3 миллиардами параметров, дистиллированную из Gemini 2.5 Flash. Используя новую двухэтапную стратегию обучения — контролируемую тонкую настройку с последующей оптимизацией групповой относительной политики (GRPO), наш подход позволяет эффективно адаптироваться к ограниченным данным, сохраняя при этом конкурентоспособную производительность. Вместе наш эталонный набор данных и модель предлагают качественную основу и ресурсоэффективное решение для продвижения всеобъемлющего создания видеозаголовков в неограниченных условиях реального пользовательского контента.
English
Real-world user-generated videos, especially on platforms like TikTok, often feature rich and intertwined audio visual content. However, existing video captioning benchmarks and models remain predominantly visual centric, overlooking the crucial role of audio in conveying scene dynamics, speaker intent, and narrative context. This lack of omni datasets and lightweight, capable models hampers progress in fine grained, multimodal video understanding. To address these challenges, we introduce UGC-VideoCap, a new benchmark and model framework specifically designed for detailed omnimodal captioning of short form user-generated videos. Unlike prior datasets, UGC-VideoCap emphasizes balanced integration of audio and visual modalities, featuring 1000 TikTok videos annotated through a structured three stage human-in-the-loop pipeline covering audio only, visual only, and joint audio visual semantics. The benchmark also includes 4000 carefully crafted QA pairs probing both unimodal and cross modal understanding. Alongside the dataset, we propose UGC-VideoCaptioner(3B), a 3B parameter captioning model distilled from Gemini 2.5 Flash. Using a novel two-stage training strategy supervised fine tuning followed by Group Relative Policy Optimization (GRPO), our approach enables efficient adaptation from limited data while maintaining competitive performance. Together, our benchmark and model offer a high-quality foundation and a data-efficient solution for advancing omnimodal video captioning in unconstrained real-world UGC settings.
PDF21July 16, 2025