ChatPaper.aiChatPaper

LongVPO : Des indices ancrés à l'auto-raisonnement pour l'optimisation des préférences dans les vidéos longues

LongVPO: From Anchored Cues to Self-Reasoning for Long-Form Video Preference Optimization

February 2, 2026
papers.authors: Zhenpeng Huang, Jiaqi Li, Zihan Jia, Xinhao Li, Desen Meng, Lingxue Song, Xi Chen, Liang Li, Limin Wang
cs.AI

papers.abstract

Nous présentons LongVPO, un nouveau cadre d'Optimisation Directe des Préférences en deux étapes qui permet à des modèles vision-langue à contexte court de comprendre robustement des vidéos ultra-longues sans aucune annotation vidéo longue. Dans l'Étape 1, nous synthétisons des triplets de préférences en ancrant des questions à des clips courts individuels, en les entrelaçant avec des distracteurs, et en appliquant un filtrage par similarité visuelle et par spécificité des questions pour atténuer le biais positionnel et garantir une supervision non ambiguë. Nous approximons également le score du modèle de référence sur les contextes longs en évaluant uniquement le clip d'ancrage, réduisant ainsi la surcharge computationnelle. Dans l'Étape 2, nous utilisons un pipeline de légendage récursif sur des vidéos longues pour générer des métadonnées au niveau scène, puis utilisons un grand modèle linguistique pour élaborer des requêtes de raisonnement multi-segments et des réponses non préférées, alignant ainsi les préférences du modèle via des tâches de raisonnement multi-segments. Avec seulement 16 000 exemples synthétiques et sans étiquettes humaines coûteuses, LongVPO surpasse les modèles open-source de l'état de l'art sur plusieurs benchmarks de vidéos longues, tout en maintenant de solides performances sur les vidéos courtes (par exemple, sur MVBench), offrant ainsi un paradigme évolutif pour une compréhension efficace des vidéos longues.
English
We present LongVPO, a novel two-stage Direct Preference Optimization framework that enables short-context vision-language models to robustly understand ultra-long videos without any long-video annotations. In Stage 1, we synthesize preference triples by anchoring questions to individual short clips, interleaving them with distractors, and applying visual-similarity and question-specificity filtering to mitigate positional bias and ensure unambiguous supervision. We also approximate the reference model's scoring over long contexts by evaluating only the anchor clip, reducing computational overhead. In Stage 2, we employ a recursive captioning pipeline on long videos to generate scene-level metadata, then use a large language model to craft multi-segment reasoning queries and dispreferred responses, aligning the model's preferences through multi-segment reasoning tasks. With only 16K synthetic examples and no costly human labels, LongVPO outperforms the state-of-the-art open-source models on multiple long-video benchmarks, while maintaining strong short-video performance (e.g., on MVBench), offering a scalable paradigm for efficient long-form video understanding.
PDF11February 6, 2026