LongVPO: Van Verankerde Aanwijzingen naar Zelfredenering voor Optimalisatie van Lange-Video Voorkeuren
LongVPO: From Anchored Cues to Self-Reasoning for Long-Form Video Preference Optimization
February 2, 2026
Auteurs: Zhenpeng Huang, Jiaqi Li, Zihan Jia, Xinhao Li, Desen Meng, Lingxue Song, Xi Chen, Liang Li, Limin Wang
cs.AI
Samenvatting
Wij presenteren LongVPO, een nieuw tweestaps raamwerk voor Direct Preference Optimization dat kort-context visie-taalmodellen in staat stelt om robuust ultra-lange video's te begrijpen zonder enige annotaties van lange video's. In Fase 1 synthetiseren we voorkeurs-triples door vragen te verankeren aan individuele korte clips, deze te interleaven met afleiders, en visuele-gelijkvormigheids- en vraag-specificiteitsfiltering toe te passen om positionele bias te mitigeren en eenduidige supervisie te waarborgen. Wij benaderen tevens de scoring van het referentiemodel over lange contexten door alleen de ankerclip te evalueren, wat de computationele overhead vermindert. In Fase 2 gebruiken we een recursief captioning-proces op lange video's om scene-level metadata te genereren, waarna we een groot taalmodel inzetten om multi-segment redeneervragen en niet-voorkeursreacties te vervaardigen, waardoor de voorkeuren van het model worden afgestemd via multi-segment redeneertaken. Met slechts 16K synthetische voorbeelden en zonder kostbare menselijke labels, presteert LongVPO beter dan de state-of-the-art open-source modellen op meerdere lange-video benchmarks, terwijl het sterke prestaties op korte video's behoudt (bijvoorbeeld op MVBench). Dit biedt een schaalbaar paradigma voor efficiënt lang-vorm video-begrip.
English
We present LongVPO, a novel two-stage Direct Preference Optimization framework that enables short-context vision-language models to robustly understand ultra-long videos without any long-video annotations. In Stage 1, we synthesize preference triples by anchoring questions to individual short clips, interleaving them with distractors, and applying visual-similarity and question-specificity filtering to mitigate positional bias and ensure unambiguous supervision. We also approximate the reference model's scoring over long contexts by evaluating only the anchor clip, reducing computational overhead. In Stage 2, we employ a recursive captioning pipeline on long videos to generate scene-level metadata, then use a large language model to craft multi-segment reasoning queries and dispreferred responses, aligning the model's preferences through multi-segment reasoning tasks. With only 16K synthetic examples and no costly human labels, LongVPO outperforms the state-of-the-art open-source models on multiple long-video benchmarks, while maintaining strong short-video performance (e.g., on MVBench), offering a scalable paradigm for efficient long-form video understanding.