ChatPaper.aiChatPaper

ReFoCUS: Otimização de Quadros Guiada por Reforço para Compreensão Contextual

ReFoCUS: Reinforcement-guided Frame Optimization for Contextual Understanding

June 2, 2025
Autores: Hosu Lee, Junho Kim, Hyunjun Kim, Yong Man Ro
cs.AI

Resumo

Os avanços recentes em Modelos Multimodais de Grande Escala (LMMs) têm permitido um raciocínio eficaz entre visão e linguagem, mas a capacidade de compreender conteúdo de vídeo ainda é limitada por estratégias subótimas de seleção de quadros. As abordagens existentes frequentemente dependem de heurísticas estáticas ou módulos externos de recuperação para fornecer informações de quadros aos video-LLMs, o que pode falhar em fornecer informações relevantes à consulta. Neste trabalho, introduzimos o ReFoCUS (Reinforcement-guided Frame Optimization for Contextual UnderStanding), uma nova estrutura de otimização de política em nível de quadro que desloca o alvo de otimização das respostas textuais para a seleção de entrada visual. O ReFoCUS aprende uma política de seleção de quadros por meio de aprendizado por reforço, utilizando sinais de recompensa derivados de um LMM de referência para refletir as preferências intrínsecas do modelo por quadros que melhor suportam respostas temporalmente fundamentadas. Para explorar de forma eficiente o grande espaço combinatório de quadros, empregamos uma arquitetura de seleção condicional autoregressiva que garante coerência temporal enquanto reduz a complexidade. Nossa abordagem não requer supervisão explícita em nível de quadro e melhora consistentemente o desempenho de raciocínio em vários benchmarks de QA de vídeo, destacando os benefícios de alinhar a seleção de quadros com a utilidade interna do modelo.
English
Recent progress in Large Multi-modal Models (LMMs) has enabled effective vision-language reasoning, yet the ability to understand video content remains constrained by suboptimal frame selection strategies. Existing approaches often rely on static heuristics or external retrieval modules to feed frame information into video-LLMs, which may fail to provide the query-relevant information. In this work, we introduce ReFoCUS (Reinforcement-guided Frame Optimization for Contextual UnderStanding), a novel frame-level policy optimization framework that shifts the optimization target from textual responses to visual input selection. ReFoCUS learns a frame selection policy via reinforcement learning, using reward signals derived from a reference LMM to reflect the model's intrinsic preferences for frames that best support temporally grounded responses. To efficiently explore the large combinatorial frame space, we employ an autoregressive, conditional selection architecture that ensures temporal coherence while reducing complexity. Our approach does not require explicit supervision at the frame-level and consistently improves reasoning performance across multiple video QA benchmarks, highlighting the benefits of aligning frame selection with model-internal utility.
PDF32June 4, 2025