ChatPaper.aiChatPaper

Groma: Tokenizzazione Visiva Localizzata per il Radicamento di Modelli Linguistici Multimodali di Grande Scala

Groma: Localized Visual Tokenization for Grounding Multimodal Large Language Models

April 19, 2024
Autori: Chuofan Ma, Yi Jiang, Jiannan Wu, Zehuan Yuan, Xiaojuan Qi
cs.AI

Abstract

Presentiamo Groma, un Modello Linguistico Multimodale di Grandi Dimensioni (MLLM) dotato di capacità di percezione visiva radicata e fine. Oltre alla comprensione olistica delle immagini, Groma è abile in compiti a livello di regione come la descrizione di aree specifiche e il grounding visivo. Tali capacità sono costruite su un meccanismo di tokenizzazione visiva localizzata, in cui un'immagine in input viene scomposta in regioni di interesse e successivamente codificata in token di regione. Integrando i token di regione nelle istruzioni dell'utente e nelle risposte del modello, abilitiamo Groma a comprendere gli input di regione specificati dall'utente e a radicare il proprio output testuale nelle immagini. Inoltre, per potenziare la capacità di chat radicata di Groma, abbiamo curato un dataset di istruzioni visivamente radicate sfruttando il potente GPT-4V e tecniche di prompting visivo. Rispetto agli MLLM che si affidano al modello linguistico o a moduli esterni per la localizzazione, Groma dimostra costantemente prestazioni superiori nei benchmark standard di riferimento e grounding, evidenziando i vantaggi dell'integrazione della localizzazione nella tokenizzazione delle immagini. Pagina del progetto: https://groma-mllm.github.io/.
English
We introduce Groma, a Multimodal Large Language Model (MLLM) with grounded and fine-grained visual perception ability. Beyond holistic image understanding, Groma is adept at region-level tasks such as region captioning and visual grounding. Such capabilities are built upon a localized visual tokenization mechanism, where an image input is decomposed into regions of interest and subsequently encoded into region tokens. By integrating region tokens into user instructions and model responses, we seamlessly enable Groma to understand user-specified region inputs and ground its textual output to images. Besides, to enhance the grounded chat ability of Groma, we curate a visually grounded instruction dataset by leveraging the powerful GPT-4V and visual prompting techniques. Compared with MLLMs that rely on the language model or external module for localization, Groma consistently demonstrates superior performances in standard referring and grounding benchmarks, highlighting the advantages of embedding localization into image tokenization. Project page: https://groma-mllm.github.io/.
PDF312February 8, 2026