ChatPaper.aiChatPaper

OneThinker: Modelo de Razonamiento Integral para Imágenes y Video

OneThinker: All-in-one Reasoning Model for Image and Video

December 2, 2025
Autores: Kaituo Feng, Manyuan Zhang, Hongyu Li, Kaixuan Fan, Shuang Chen, Yilei Jiang, Dian Zheng, Peiwen Sun, Yiyuan Zhang, Haoze Sun, Yan Feng, Peng Pei, Xunliang Cai, Xiangyu Yue
cs.AI

Resumen

El aprendizaje por refuerzo (RL) ha logrado recientemente un éxito notable en la elicitación del razonamiento visual dentro de los Modelos de Lenguaje Multimodales Grandes (MLLM). Sin embargo, los enfoques existentes suelen entrenar modelos separados para diferentes tareas y tratan el razonamiento sobre imágenes y videos como dominios disjuntos. Esto resulta en una escalabilidad limitada hacia un generalista de razonamiento multimodal, lo cual restringe la versatilidad práctica e impide el potencial intercambio de conocimiento entre tareas y modalidades. Para ello, proponemos OneThinker, un modelo de razonamiento todo-en-uno que unifica la comprensión de imágenes y videos a través de diversas tareas visuales fundamentales, incluyendo respuesta a preguntas, descripción, localización espacial y temporal, seguimiento y segmentación. Para lograrlo, construimos el corpus de entrenamiento OneThinker-600k que cubre todas estas tareas y empleamos modelos comerciales para la anotación de Cadena de Pensamiento (CoT), resultando en OneThinker-SFT-340k para el arranque en frío mediante Ajuste Supervisado (SFT). Además, proponemos EMA-GRPO para manejar la heterogeneidad de las recompensas en el RL multitarea mediante el seguimiento de medias móviles por tarea de las desviaciones estándar de las recompensas para una optimización equilibrada. Experimentos exhaustivos en diversos benchmarks visuales muestran que OneThinker ofrece un rendimiento sólido en 31 benchmarks, abarcando 10 tareas fundamentales de comprensión visual. Además, exhibe una transferencia de conocimiento efectiva entre ciertas tareas y una capacidad preliminar de generalización zero-shot, marcando un paso hacia un generalista unificado de razonamiento multimodal. Todo el código, modelo y datos son liberados.
English
Reinforcement learning (RL) has recently achieved remarkable success in eliciting visual reasoning within Multimodal Large Language Models (MLLMs). However, existing approaches typically train separate models for different tasks and treat image and video reasoning as disjoint domains. This results in limited scalability toward a multimodal reasoning generalist, which restricts practical versatility and hinders potential knowledge sharing across tasks and modalities. To this end, we propose OneThinker, an all-in-one reasoning model that unifies image and video understanding across diverse fundamental visual tasks, including question answering, captioning, spatial and temporal grounding, tracking, and segmentation. To achieve this, we construct the OneThinker-600k training corpus covering all these tasks and employ commercial models for CoT annotation, resulting in OneThinker-SFT-340k for SFT cold start. Furthermore, we propose EMA-GRPO to handle reward heterogeneity in multi-task RL by tracking task-wise moving averages of reward standard deviations for balanced optimization. Extensive experiments on diverse visual benchmarks show that OneThinker delivers strong performance on 31 benchmarks, across 10 fundamental visual understanding tasks. Moreover, it exhibits effective knowledge transfer between certain tasks and preliminary zero-shot generalization ability, marking a step toward a unified multimodal reasoning generalist. All code, model, and data are released.
PDF191December 5, 2025