OneThinker: All-in-One-Denkmodell für Bilder und Videos
OneThinker: All-in-one Reasoning Model for Image and Video
December 2, 2025
papers.authors: Kaituo Feng, Manyuan Zhang, Hongyu Li, Kaixuan Fan, Shuang Chen, Yilei Jiang, Dian Zheng, Peiwen Sun, Yiyuan Zhang, Haoze Sun, Yan Feng, Peng Pei, Xunliang Cai, Xiangyu Yue
cs.AI
papers.abstract
Reinforcement Learning (RL) hat kürzlich bemerkenswerte Erfolge beim Auslösen visueller Reasoning-Fähigkeiten in Multimodalen Large Language Models (MLLMs) erzielt. Bestehende Ansätze trainieren jedoch typischerweise separate Modelle für verschiedene Aufgaben und behandeln Bild- und Video-Reasoning als getrennte Domänen. Dies führt zu einer begrenzten Skalierbarkeit hin zu einem multimodalen Reasoning-Allrounder, was die praktische Vielseitigkeit einschränkt und potenziellen Wissensaustausch über Aufgaben und Modalitäten hinweg behindert. Daher schlagen wir OneThinker vor, ein All-in-One-Reasoning-Modell, das Bild- und Videoverständnis über verschiedene grundlegende visuelle Aufgaben hinweg vereinheitlicht, einschließlich Frage-Antworten, Beschreibung, räumlicher und zeitlicher Lokalisierung, Tracking und Segmentierung. Um dies zu erreichen, haben wir den OneThinker-600k-Trainingskorpus erstellt, der alle diese Aufgaben abdeckt, und kommerzielle Modelle für CoT-Annotationen eingesetzt, was zu OneThinker-SFT-340k für den SFT-Kaltstart führte. Darüber hinaus schlagen wir EMA-GRPO vor, um Reward-Heterogenität im Multi-Task-RL zu bewältigen, indem gleitende Durchschnitte der Reward-Standardabweichungen pro Aufgabe zur ausgewogenen Optimierung verfolgt werden. Umfangreiche Experimente auf diversen visuellen Benchmarks zeigen, dass OneThinker auf 31 Benchmarks über 10 grundlegende visuelle Verständnisaufgaben hinweg starke Leistungen erbringt. Zudem zeigt es effektiven Wissenstransfer zwischen bestimmten Aufgaben und erste Zero-Shot-Generalisierungsfähigkeiten, was einen Schritt in Richtung eines vereinheitlichten multimodalen Reasoning-Allrounders darstellt. Alle Codes, Modelle und Daten werden veröffentlicht.
English
Reinforcement learning (RL) has recently achieved remarkable success in eliciting visual reasoning within Multimodal Large Language Models (MLLMs). However, existing approaches typically train separate models for different tasks and treat image and video reasoning as disjoint domains. This results in limited scalability toward a multimodal reasoning generalist, which restricts practical versatility and hinders potential knowledge sharing across tasks and modalities. To this end, we propose OneThinker, an all-in-one reasoning model that unifies image and video understanding across diverse fundamental visual tasks, including question answering, captioning, spatial and temporal grounding, tracking, and segmentation. To achieve this, we construct the OneThinker-600k training corpus covering all these tasks and employ commercial models for CoT annotation, resulting in OneThinker-SFT-340k for SFT cold start. Furthermore, we propose EMA-GRPO to handle reward heterogeneity in multi-task RL by tracking task-wise moving averages of reward standard deviations for balanced optimization. Extensive experiments on diverse visual benchmarks show that OneThinker delivers strong performance on 31 benchmarks, across 10 fundamental visual understanding tasks. Moreover, it exhibits effective knowledge transfer between certain tasks and preliminary zero-shot generalization ability, marking a step toward a unified multimodal reasoning generalist. All code, model, and data are released.