ChatPaper.aiChatPaper

VideoAgent: Comprensión de videos extensos con un modelo de lenguaje grande como agente

VideoAgent: Long-form Video Understanding with Large Language Model as Agent

March 15, 2024
Autores: Xiaohan Wang, Yuhui Zhang, Orr Zohar, Serena Yeung-Levy
cs.AI

Resumen

La comprensión de videos de larga duración representa un desafío significativo dentro de la visión por computadora, ya que requiere un modelo capaz de razonar sobre secuencias multimodales extensas. Inspirados por el proceso cognitivo humano para la comprensión de videos de larga duración, enfatizamos el razonamiento interactivo y la planificación sobre la capacidad de procesar entradas visuales extensas. Introducimos un sistema novedoso basado en agentes, VideoAgent, que emplea un modelo de lenguaje grande como agente central para identificar y compilar de manera iterativa información crucial para responder a una pregunta, utilizando modelos fundamentales de visión y lenguaje como herramientas para traducir y recuperar información visual. Evaluado en los desafiantes benchmarks EgoSchema y NExT-QA, VideoAgent alcanza un 54.1% y un 71.3% de precisión en zero-shot, utilizando en promedio solo 8.4 y 8.2 frames respectivamente. Estos resultados demuestran la superior efectividad y eficiencia de nuestro método frente a los métodos más avanzados actuales, destacando el potencial de los enfoques basados en agentes para avanzar en la comprensión de videos de larga duración.
English
Long-form video understanding represents a significant challenge within computer vision, demanding a model capable of reasoning over long multi-modal sequences. Motivated by the human cognitive process for long-form video understanding, we emphasize interactive reasoning and planning over the ability to process lengthy visual inputs. We introduce a novel agent-based system, VideoAgent, that employs a large language model as a central agent to iteratively identify and compile crucial information to answer a question, with vision-language foundation models serving as tools to translate and retrieve visual information. Evaluated on the challenging EgoSchema and NExT-QA benchmarks, VideoAgent achieves 54.1% and 71.3% zero-shot accuracy with only 8.4 and 8.2 frames used on average. These results demonstrate superior effectiveness and efficiency of our method over the current state-of-the-art methods, highlighting the potential of agent-based approaches in advancing long-form video understanding.

Summary

AI-Generated Summary

PDF362December 15, 2024