ChatPaper.aiChatPaper

Saisir n'importe quelle région : Vers une compréhension contextuelle précise des pixels pour les modèles de langage multimodaux

Grasp Any Region: Towards Precise, Contextual Pixel Understanding for Multimodal LLMs

October 21, 2025
papers.authors: Haochen Wang, Yuhao Wang, Tao Zhang, Yikang Zhou, Yanwei Li, Jiacong Wang, Ye Tian, Jiahao Meng, Zilong Huang, Guangcan Mai, Anran Wang, Yunhai Tong, Zhuochen Wang, Xiangtai Li, Zhaoxiang Zhang
cs.AI

papers.abstract

Bien que les modèles de langage multimodaux de grande taille (MLLMs) excellent dans la compréhension holistique, ils peinent à capturer un monde dense avec des scènes complexes, nécessitant une analyse fine des détails complexes et des interrelations entre objets. Les MLLMs au niveau des régions ont constitué une étape prometteuse. Cependant, les tentatives précédentes sont généralement optimisées pour comprendre des régions données de manière isolée, négligeant les contextes globaux cruciaux. Pour remédier à cela, nous introduisons Grasp Any Region (GAR) pour une compréhension visuelle complète au niveau des régions. Grâce à une technique efficace de relecture des caractéristiques alignées sur les régions d'intérêt (RoI), GAR permet (1) une perception précise en exploitant les contextes globaux nécessaires, et (2) la modélisation des interactions entre plusieurs invites. Ensemble, il parvient naturellement à (3) un raisonnement compositionnel avancé pour répondre à des questions libres spécifiques sur n'importe quelle région, passant ainsi du paradigme de la description passive à celui du dialogue actif. De plus, nous construisons GAR-Bench, qui non seulement fournit une évaluation plus précise de la compréhension d'une seule région, mais aussi, et surtout, mesure les interactions et le raisonnement complexe à travers plusieurs régions. Des expériences approfondies ont démontré que GAR-1B non seulement maintient les capacités de légendage de pointe, par exemple en surpassant DAM-3B de +4,5 sur DLC-Bench, mais excelle également dans la modélisation des relations entre plusieurs invites avec des capacités de compréhension avancées, surpassant même InternVL3-78B sur GAR-Bench-VQA. Plus important encore, notre GAR-8B en zero-shot surpasse même VideoRefer-7B en domaine spécifique sur VideoRefer-BenchQ, indiquant que ses fortes capacités peuvent être facilement transférées aux vidéos.
English
While Multimodal Large Language Models (MLLMs) excel at holistic understanding, they struggle in capturing the dense world with complex scenes, requiring fine-grained analysis of intricate details and object inter-relationships. Region-level MLLMs have been a promising step. However, previous attempts are generally optimized to understand given regions in isolation, neglecting crucial global contexts. To address this, we introduce Grasp Any Region (GAR) for comprehen- sive region-level visual understanding. Empowered by an effective RoI-aligned feature replay technique, GAR supports (1) precise perception by leveraging necessary global contexts, and (2) modeling interactions between multiple prompts. Together, it then naturally achieves (3) advanced compositional reasoning to answer specific free-form questions about any region, shifting the paradigm from passive description to active dialogue. Moreover, we construct GAR-Bench, which not only provides a more accurate evaluation of single-region comprehension, but also, more importantly, measures interactions and complex reasoning across multiple regions. Extensive experiments have demonstrated that GAR-1B not only maintains the state-of-the-art captioning capabilities, e.g., outperforming DAM-3B +4.5 on DLC-Bench, but also excels at modeling relationships between multiple prompts with advanced comprehension capabilities, even surpassing InternVL3-78B on GAR-Bench-VQA. More importantly, our zero-shot GAR-8B even outperforms in-domain VideoRefer-7B on VideoRefer-BenchQ, indicating its strong capabilities can be easily transferred to videos.
PDF312October 22, 2025