ChatPaper.aiChatPaper

Rileva Qualsiasi Cosa tramite la Predizione del Prossimo Punto

Detect Anything via Next Point Prediction

October 14, 2025
Autori: Qing Jiang, Junan Huo, Xingyu Chen, Yuda Xiong, Zhaoyang Zeng, Yihao Chen, Tianhe Ren, Junzhi Yu, Lei Zhang
cs.AI

Abstract

La rilevazione di oggetti è stata a lungo dominata da modelli tradizionali basati sulla regressione di coordinate, come YOLO, DETR e Grounding DINO. Sebbene recenti sforzi abbiano tentato di sfruttare i MLLM (Modelli Linguistici Multimodali) per affrontare questo compito, si scontrano con sfide come un basso tasso di richiamo, previsioni duplicate, disallineamento delle coordinate, ecc. In questo lavoro, colmiamo questo divario e proponiamo Rex-Omni, un MLLM su scala 3B che raggiunge prestazioni all'avanguardia nella percezione degli oggetti. Su benchmark come COCO e LVIS, Rex-Omni ottiene prestazioni paragonabili o superiori ai modelli basati sulla regressione (ad esempio, DINO, Grounding DINO) in un contesto zero-shot. Questo è reso possibile da tre design chiave: 1) Formulazione del Task: utilizziamo token speciali per rappresentare coordinate quantizzate da 0 a 999, riducendo la difficoltà di apprendimento del modello e migliorando l'efficienza dei token per la previsione delle coordinate; 2) Motori di Dati: costruiamo più motori di dati per generare dati di grounding, riferimenti e puntamento di alta qualità, fornendo una supervisione semanticamente ricca per l'addestramento; 3) Pipeline di Addestramento: adottiamo un processo di addestramento in due fasi, combinando il fine-tuning supervisionato su 22 milioni di dati con un post-addestramento basato su GRPO (Geometric Reward Post-Optimization). Questo post-addestramento RL sfrutta ricompense basate sulla geometria per colmare efficacemente il divario tra la previsione di coordinate discrete e continue, migliorare l'accuratezza delle bounding box e mitigare comportamenti indesiderati come previsioni duplicate che derivano dalla natura guidata dall'insegnante della fase iniziale di SFT. Oltre alla rilevazione convenzionale, la comprensione linguistica intrinseca di Rex-Omni abilita capacità versatili come il riferimento a oggetti, il puntamento, il prompting visivo, il grounding di GUI, il riferimento spaziale, l'OCR e il key-pointing, tutti valutati sistematicamente su benchmark dedicati. Crediamo che Rex-Omni apra la strada a sistemi di percezione visiva più versatili e consapevoli del linguaggio.
English
Object detection has long been dominated by traditional coordinate regression-based models, such as YOLO, DETR, and Grounding DINO. Although recent efforts have attempted to leverage MLLMs to tackle this task, they face challenges like low recall rate, duplicate predictions, coordinate misalignment, etc. In this work, we bridge this gap and propose Rex-Omni, a 3B-scale MLLM that achieves state-of-the-art object perception performance. On benchmarks like COCO and LVIS, Rex-Omni attains performance comparable to or exceeding regression-based models (e.g., DINO, Grounding DINO) in a zero-shot setting. This is enabled by three key designs: 1) Task Formulation: we use special tokens to represent quantized coordinates from 0 to 999, reducing the model's learning difficulty and improving token efficiency for coordinate prediction; 2) Data Engines: we construct multiple data engines to generate high-quality grounding, referring, and pointing data, providing semantically rich supervision for training; \3) Training Pipelines: we employ a two-stage training process, combining supervised fine-tuning on 22 million data with GRPO-based reinforcement post-training. This RL post-training leverages geometry-aware rewards to effectively bridge the discrete-to-continuous coordinate prediction gap, improve box accuracy, and mitigate undesirable behaviors like duplicate predictions that stem from the teacher-guided nature of the initial SFT stage. Beyond conventional detection, Rex-Omni's inherent language understanding enables versatile capabilities such as object referring, pointing, visual prompting, GUI grounding, spatial referring, OCR and key-pointing, all systematically evaluated on dedicated benchmarks. We believe that Rex-Omni paves the way for more versatile and language-aware visual perception systems.
PDF423October 15, 2025