ChatPaper.aiChatPaper

LOVE-R1: Fortschritt im Verständnis langer Videos durch einen adaptiven Zoom-Mechanismus mittels mehrstufiger Argumentation

LOVE-R1: Advancing Long Video Understanding with an Adaptive Zoom-in Mechanism via Multi-Step Reasoning

September 29, 2025
papers.authors: Shenghao Fu, Qize Yang, Yuan-Ming Li, Xihan Wei, Xiaohua Xie, Wei-Shi Zheng
cs.AI

papers.abstract

Das Verständnis langer Videos bleibt für aktuelle Large Video-Language Models (LVLMs) eine Herausforderung, da ein Konflikt zwischen dem langfristigen zeitlichen Verständnis und der detaillierten räumlichen Wahrnehmung besteht. LVLMs mit einem einheitlichen Frame-Sampling-Mechanismus, der Frames mit gleicher Bildgröße und fester Abtastrate auswählt, opfern unweigerlich entweder zeitliche Hinweise oder räumliche Details, was zu suboptimalen Lösungen führt. Um dieses Dilemma zu mildern, schlagen wir LOVE-R1 vor, ein Modell, das sich adaptiv auf einen Videoclip zoomen kann. Das Modell erhält zunächst dicht abgetastete Frames, jedoch in einer kleinen Auflösung. Falls räumliche Details benötigt werden, kann das Modell basierend auf seiner Schlussfolgerung auf einen interessierenden Clip mit einer hohen Frame-Auflösung zoomen, bis wichtige visuelle Informationen erfasst sind. Der gesamte Prozess wird als ein mehrstufiger Schlussfolgerungsprozess implementiert. Um die Schlussfolgerungsfähigkeit zu trainieren, finetunen wir das Modell zunächst auf unseren gesammelten 38k hochwertigen CoT-Daten und verbessern es durch entkoppeltes Reinforcement-Finetuning. Da Ergebnisbelohnungen keine feingranulare Prozessüberwachung bieten können, entkoppeln wir die mehrstufige Schlussfolgerung in mehrere einstufige Schlussfolgerungen und optimieren die interne Zoom-Fähigkeit explizit. Experimente auf Benchmarks für das Verständnis langer Videos zeigen, dass unser Modell mit dem adaptiven Slow-Fast-Frame-Sampling-Mechanismus einen guten Kompromiss zwischen Abtastdichte und Frame-Auflösungen erreicht und LOVE-R1 unser Baseline-Modell Qwen2.5-VL auf 4 gängigen Benchmarks für das Verständnis langer Videos im Durchschnitt um 3,1 Prozentpunkte übertrifft.
English
Long video understanding is still challenging for recent Large Video-Language Models (LVLMs) due to the conflict between long-form temporal understanding and detailed spatial perception. LVLMs with a uniform frame sampling mechanism, which samples frames with an equal frame size and fixed sampling rate, inevitably sacrifice either temporal clues or spatial details, resulting in suboptimal solutions. To mitigate this dilemma, we propose LOVE-R1, a model that can adaptively zoom in on a video clip. The model is first provided with densely sampled frames but in a small resolution. If some spatial details are needed, the model can zoom in on a clip of interest with a large frame resolution based on its reasoning until key visual information is obtained. The whole process is implemented as a multi-step reasoning process. To train the reasoning ability, we first finetune the model on our collected 38k high-quality CoT data and enhance it with decoupled reinforcement finetuning. As outcome rewards can not provide fine-grained process supervision, we decouple multi-step reasoning into multiple single-step reasoning and optimize the internal zoom-in ability explicitly. Experiments on long video understanding benchmarks show that our model with the slow-fast adaptive frame sampling mechanism achieves a great trade-off between sampling density and frame resolutions, and LOVE-R1 outperforms our baseline Qwen2.5-VL by an average of 3.1% points across 4 common long video understanding benchmarks.
PDF52September 30, 2025