OneThinker: Alles-in-één Redeneermodel voor Beeld en Video
OneThinker: All-in-one Reasoning Model for Image and Video
December 2, 2025
Auteurs: Kaituo Feng, Manyuan Zhang, Hongyu Li, Kaixuan Fan, Shuang Chen, Yilei Jiang, Dian Zheng, Peiwen Sun, Yiyuan Zhang, Haoze Sun, Yan Feng, Peng Pei, Xunliang Cai, Xiangyu Yue
cs.AI
Samenvatting
Versterkingsleren (RL) heeft onlangs opmerkelijke successen geboekt bij het uitlokken van visueel redeneren in Multimodale Grote Taalmodellen (MLLM's). Bestaande benaderingen trainen echter typisch aparte modellen voor verschillende taken en behandelen beeld- en videoredenering als gescheiden domeinen. Dit resulteert in een beperkte schaalbaarheid richting een multimodale redeneergeneralist, wat de praktische veelzijdigheid beperkt en mogelijke kennisdeling tussen taken en modaliteiten belemmert. Daartoe stellen wij OneThinker voor, een alles-in-één redeneermodel dat beeld- en videobegrip verenigt uiteenlopende fundamentele visuele taken, waaronder vraagbeantwoording, beeldbeschrijving, ruimtelijke en temporele lokalisatie, tracking en segmentatie. Om dit te bereiken, construeren we de OneThinker-600k-trainingscorpus die al deze taken dekt en zetten we commerciële modellen in voor CoT-annotatie, wat resulteert in OneThinker-SFT-340k voor SFT-koude start. Verder stellen we EMA-GRPO voor om beloningsheterogeniteit in multi-task-RL te hanteren door taskgewijze voortschrijdende gemiddelden van beloningsstandaarddeviaties bij te houden voor gebalanceerde optimalisatie. Uitgebreide experimenten op diverse visuele benchmarks tonen aan dat OneThinker sterke prestaties levert op 31 benchmarks, verspreid over 10 fundamentele visuele begriptaken. Bovendien vertoont het effectieve kennisoverdracht tussen bepaalde taken en een preliminair zero-shot-generaliseervermogen, wat een stap betekent richting een verenigde multimodale redeneergeneralist. Alle code, modellen en data worden vrijgegeven.
English
Reinforcement learning (RL) has recently achieved remarkable success in eliciting visual reasoning within Multimodal Large Language Models (MLLMs). However, existing approaches typically train separate models for different tasks and treat image and video reasoning as disjoint domains. This results in limited scalability toward a multimodal reasoning generalist, which restricts practical versatility and hinders potential knowledge sharing across tasks and modalities. To this end, we propose OneThinker, an all-in-one reasoning model that unifies image and video understanding across diverse fundamental visual tasks, including question answering, captioning, spatial and temporal grounding, tracking, and segmentation. To achieve this, we construct the OneThinker-600k training corpus covering all these tasks and employ commercial models for CoT annotation, resulting in OneThinker-SFT-340k for SFT cold start. Furthermore, we propose EMA-GRPO to handle reward heterogeneity in multi-task RL by tracking task-wise moving averages of reward standard deviations for balanced optimization. Extensive experiments on diverse visual benchmarks show that OneThinker delivers strong performance on 31 benchmarks, across 10 fundamental visual understanding tasks. Moreover, it exhibits effective knowledge transfer between certain tasks and preliminary zero-shot generalization ability, marking a step toward a unified multimodal reasoning generalist. All code, model, and data are released.