ChatPaper.aiChatPaper

LongVPO: De Pistas Ancladas al Auto-Razonamiento para la Optimización de Preferencias en Videos de Larga Duración

LongVPO: From Anchored Cues to Self-Reasoning for Long-Form Video Preference Optimization

February 2, 2026
Autores: Zhenpeng Huang, Jiaqi Li, Zihan Jia, Xinhao Li, Desen Meng, Lingxue Song, Xi Chen, Liang Li, Limin Wang
cs.AI

Resumen

Presentamos LongVPO, un novedoso marco de Optimización Directa de Preferencias en dos etapas que permite a los modelos de visión y lenguaje de contexto corto comprender de forma robusta vídeos ultra largos sin necesidad de anotaciones de vídeos largos. En la Etapa 1, sintetizamos tripletes de preferencias anclando preguntas a clips cortos individuales, intercalándolos con distractores y aplicando filtros de similitud visual y especificidad de la pregunta para mitigar el sesgo posicional y garantizar una supervisión inequívoca. También aproximamos la puntuación del modelo de referencia sobre contextos largos evaluando únicamente el clip ancla, reduciendo la sobrecarga computacional. En la Etapa 2, empleamos un pipeline de subtitulado recursivo en vídeos largos para generar metadatos a nivel de escena, luego utilizamos un modelo de lenguaje grande para elaborar consultas de razonamiento multi-segmento y respuestas no preferidas, alineando las preferencias del modelo mediante tareas de razonamiento multi-segmento. Con solo 16K ejemplos sintéticos y sin costosas etiquetas humanas, LongVPO supera a los modelos de código abierto más avanzados en múltiples benchmarks de vídeo largo, manteniendo al mismo tiempo un rendimiento sólido en vídeos cortos (por ejemplo, en MVBench), ofreciendo un paradigma escalable para una comprensión eficiente de vídeos de larga duración.
English
We present LongVPO, a novel two-stage Direct Preference Optimization framework that enables short-context vision-language models to robustly understand ultra-long videos without any long-video annotations. In Stage 1, we synthesize preference triples by anchoring questions to individual short clips, interleaving them with distractors, and applying visual-similarity and question-specificity filtering to mitigate positional bias and ensure unambiguous supervision. We also approximate the reference model's scoring over long contexts by evaluating only the anchor clip, reducing computational overhead. In Stage 2, we employ a recursive captioning pipeline on long videos to generate scene-level metadata, then use a large language model to craft multi-segment reasoning queries and dispreferred responses, aligning the model's preferences through multi-segment reasoning tasks. With only 16K synthetic examples and no costly human labels, LongVPO outperforms the state-of-the-art open-source models on multiple long-video benchmarks, while maintaining strong short-video performance (e.g., on MVBench), offering a scalable paradigm for efficient long-form video understanding.
PDF11February 6, 2026