OneThinker: Modello di Ragionamento All-in-one per Immagini e Video
OneThinker: All-in-one Reasoning Model for Image and Video
December 2, 2025
Autori: Kaituo Feng, Manyuan Zhang, Hongyu Li, Kaixuan Fan, Shuang Chen, Yilei Jiang, Dian Zheng, Peiwen Sun, Yiyuan Zhang, Haoze Sun, Yan Feng, Peng Pei, Xunliang Cai, Xiangyu Yue
cs.AI
Abstract
L'apprendimento per rinforzo (RL) ha recentemente ottenuto un notevole successo nell'evocare ragionamento visivo all'interno dei Modelli Linguistici Multimodali di Grande Dimensione (MLLM). Tuttavia, gli approcci esistenti tipicamente addestrano modelli separati per compiti diversi e trattano il ragionamento su immagini e video come domini disgiunti. Ciò risulta in una scalabilità limitata verso un generalista del ragionamento multimodale, il che restringe la versatilità pratica e ostacola la potenziale condivisione di conoscenze tra compiti e modalità. A tal fine, proponiamo OneThinker, un modello di ragionamento tutto-in-uno che unifica la comprensione di immagini e video attraverso diversi compiti visivi fondamentali, inclusi question answering, captioning, grounding spaziale e temporale, tracking e segmentazione. Per raggiungere questo obiettivo, costruiamo il corpus di addestramento OneThinker-600k che copre tutti questi compiti e impieghiamo modelli commerciali per l'annotazione CoT, ottenendo OneThinker-SFT-340k per un cold start SFT. Inoltre, proponiamo EMA-GRPO per gestire l'eterogeneità dei reward nel RL multi-task monitorando le medie mobili per-task delle deviazioni standard dei reward per un'ottimizzazione bilanciata. Esperimenti estesi su diversi benchmark visivi mostrano che OneThinker fornisce prestazioni solide su 31 benchmark, attraverso 10 compiti fondamentali di comprensione visiva. Inoltre, esso mostra un efficace trasferimento di conoscenza tra certi compiti e un'abilità preliminare di generalizzazione zero-shot, segnando un passo verso un generalista unificato del ragionamento multimodale. Tutto il codice, il modello e i dati sono rilasciati.
English
Reinforcement learning (RL) has recently achieved remarkable success in eliciting visual reasoning within Multimodal Large Language Models (MLLMs). However, existing approaches typically train separate models for different tasks and treat image and video reasoning as disjoint domains. This results in limited scalability toward a multimodal reasoning generalist, which restricts practical versatility and hinders potential knowledge sharing across tasks and modalities. To this end, we propose OneThinker, an all-in-one reasoning model that unifies image and video understanding across diverse fundamental visual tasks, including question answering, captioning, spatial and temporal grounding, tracking, and segmentation. To achieve this, we construct the OneThinker-600k training corpus covering all these tasks and employ commercial models for CoT annotation, resulting in OneThinker-SFT-340k for SFT cold start. Furthermore, we propose EMA-GRPO to handle reward heterogeneity in multi-task RL by tracking task-wise moving averages of reward standard deviations for balanced optimization. Extensive experiments on diverse visual benchmarks show that OneThinker delivers strong performance on 31 benchmarks, across 10 fundamental visual understanding tasks. Moreover, it exhibits effective knowledge transfer between certain tasks and preliminary zero-shot generalization ability, marking a step toward a unified multimodal reasoning generalist. All code, model, and data are released.