ChatPaper.aiChatPaper

OneThinker : Modèle de raisonnement universel pour l'images et les vidéos

OneThinker: All-in-one Reasoning Model for Image and Video

December 2, 2025
papers.authors: Kaituo Feng, Manyuan Zhang, Hongyu Li, Kaixuan Fan, Shuang Chen, Yilei Jiang, Dian Zheng, Peiwen Sun, Yiyuan Zhang, Haoze Sun, Yan Feng, Peng Pei, Xunliang Cai, Xiangyu Yue
cs.AI

papers.abstract

L'apprentissage par renforcement (RL) a récemment obtenu des succès remarquables pour susciter le raisonnement visuel dans les Modèles de Langage Multimodaux de Grande Taille (MLLMs). Cependant, les approches existantes entraînent généralement des modèles séparés pour différentes tâches et traitent le raisonnement sur images et sur vidéos comme des domaines disjoints. Cela limite l'évolutivité vers un généraliste du raisonnement multimodal, ce qui restreint la versatilité pratique et entrave le partage potentiel des connaissances entre les tâches et les modalités. À cette fin, nous proposons OneThinker, un modèle de raisonnement tout-en-un qui unifie la compréhension d'images et de vidéos pour diverses tâches visuelles fondamentales, incluant la réponse à des questions, la description d'images, le repérage spatial et temporel, le suivi et la segmentation. Pour y parvenir, nous avons constitué le corpus d'entraînement OneThinker-600k couvrant toutes ces tâches et avons employé des modèles commerciaux pour l'annotation par Chaîne de Pensée (CoT), produisant ainsi OneThinker-SFT-340k pour un démarrage à froid par Supervised Fine-Tuning (SFT). De plus, nous proposons EMA-GRPO pour gérer l'hétérogénéité des récompenses dans le RL multi-tâches en suivant les moyennes mobiles par tâche des écarts-types des récompenses afin d'optimiser un équilibre. Des expériences approfondies sur divers benchmarks visuels montrent qu'OneThinker offre de solides performances sur 31 benchmarks, couvrant 10 tâches fondamentales de compréhension visuelle. De plus, il présente un transfert de connaissances efficace entre certaines tâches et une capacité préliminaire de généralisation zero-shot, marquant une étape vers un généraliste unifié du raisonnement multimodal. L'ensemble du code, des modèles et des données est publié.
English
Reinforcement learning (RL) has recently achieved remarkable success in eliciting visual reasoning within Multimodal Large Language Models (MLLMs). However, existing approaches typically train separate models for different tasks and treat image and video reasoning as disjoint domains. This results in limited scalability toward a multimodal reasoning generalist, which restricts practical versatility and hinders potential knowledge sharing across tasks and modalities. To this end, we propose OneThinker, an all-in-one reasoning model that unifies image and video understanding across diverse fundamental visual tasks, including question answering, captioning, spatial and temporal grounding, tracking, and segmentation. To achieve this, we construct the OneThinker-600k training corpus covering all these tasks and employ commercial models for CoT annotation, resulting in OneThinker-SFT-340k for SFT cold start. Furthermore, we propose EMA-GRPO to handle reward heterogeneity in multi-task RL by tracking task-wise moving averages of reward standard deviations for balanced optimization. Extensive experiments on diverse visual benchmarks show that OneThinker delivers strong performance on 31 benchmarks, across 10 fundamental visual understanding tasks. Moreover, it exhibits effective knowledge transfer between certain tasks and preliminary zero-shot generalization ability, marking a step toward a unified multimodal reasoning generalist. All code, model, and data are released.
PDF191December 5, 2025