ChatPaper.aiChatPaper

Cuándo y Qué: VideoLLM Basado en Difusión con Segmentación Consciente de Entidades para la Comprensión de Videos Largos

When and What: Diffusion-Grounded VideoLLM with Entity Aware Segmentation for Long Video Understanding

August 21, 2025
Autores: Pengcheng Fang, Yuxia Chen, Rui Guo
cs.AI

Resumen

Comprender videos requiere más que responder preguntas abiertas; exige la capacidad de identificar cuándo ocurren los eventos y cómo interactúan las entidades a lo largo del tiempo. Si bien los modelos de lenguaje de video (Video LLMs) recientes han logrado avances notables en razonamiento holístico, siguen siendo imprecisos en la percepción temporal: las marcas de tiempo se codifican solo de manera implícita, las características a nivel de fotograma son débiles para capturar la continuidad, y la alineación entre lenguaje y visión a menudo se desvía de las entidades de interés. En este artículo, presentamos Grounded VideoDiT, un Video LLM diseñado para superar estas limitaciones mediante tres innovaciones clave. Primero, un codificador de latente temporal de difusión (Diffusion Temporal Latent, DTL) mejora la sensibilidad a los límites y mantiene la consistencia temporal. Segundo, las representaciones basadas en objetos vinculan explícitamente las entidades consultadas con evidencia visual localizada, fortaleciendo la alineación. Tercero, un esquema de tokens mixtos con tokens temporales discretos proporciona un modelado explícito de marcas de tiempo, permitiendo un razonamiento temporal de grano fino. En conjunto, estos diseños dotan a Grounded VideoDiT de capacidades robustas de anclaje, como lo validan los resultados de vanguardia en Charades STA, NExT GQA y múltiples benchmarks de VideoQA.
English
Understanding videos requires more than answering open ended questions, it demands the ability to pinpoint when events occur and how entities interact across time. While recent Video LLMs have achieved remarkable progress in holistic reasoning, they remain coarse in temporal perception: timestamps are encoded only implicitly, frame level features are weak in capturing continuity, and language vision alignment often drifts from the entities of interest. In this paper, we present Grounded VideoDiT, a Video LLM designed to overcome these limitations by introducing three key innovations. First, a Diffusion Temporal Latent (DTL) encoder enhances boundary sensitivity and maintains temporal consistency. Second, object grounded representations explicitly bind query entities to localized visual evidence, strengthening alignment. Third, a mixed token scheme with discrete temporal tokens provides explicit timestamp modeling, enabling fine grained temporal reasoning. Together, these designs equip Grounded VideoDiT with robust grounding capabilities, as validated by state of the art results on Charades STA, NExT GQA, and multiple VideoQA benchmarks.
PDF32August 22, 2025