ChatPaper.aiChatPaper

DiffThinker: Генеративное мультимодальное рассуждение с помощью диффузионных моделей

DiffThinker: Towards Generative Multimodal Reasoning with Diffusion Models

December 30, 2025
Авторы: Zefeng He, Xiaoye Qu, Yafu Li, Tong Zhu, Siyuan Huang, Yu Cheng
cs.AI

Аннотация

Хотя современные мультимодальные большие языковые модели (МБЯМ) достигли значительного прогресса в области мультимодальных рассуждений, их процесс мышления остается преимущественно текстоцентричным, что приводит к неоптимальной производительности в сложных долгосрочных визуально-ориентированных задачах. В данной статье мы предлагаем новую парадигму генеративных мультимодальных рассуждений и представляем DiffThinker — диффузионную архитектуру для рассуждений. Концептуально DiffThinker переформулирует мультимодальные рассуждения как изначально генеративную задачу преобразования изображений, достигая превосходной логической согласованности и пространственной точности в визуально-ориентированных задачах. Мы проводим систематическое сравнение DiffThinker с МБЯМ, представляя первое глубокое исследование внутренних характеристик данной парадигмы и выявляя четыре ключевых свойства: эффективность, управляемость, изначальный параллелизм и способность к коллаборации. Масштабные эксперименты в четырех областях (последовательное планирование, комбинаторная оптимизация, удовлетворение ограничений и пространственная конфигурация) демонстрируют, что DiffThinker существенно превосходит ведущие проприетарные модели, включая GPT-5 (+314.2%) и Gemini-3-Flash (+111.6%), а также дообученную базовую модель Qwen3-VL-32B (+39.0%), что подтверждает перспективность генеративного подхода к мультимодальным рассуждениям для визуально-ориентированного мышления.
English
While recent Multimodal Large Language Models (MLLMs) have attained significant strides in multimodal reasoning, their reasoning processes remain predominantly text-centric, leading to suboptimal performance in complex long-horizon, vision-centric tasks. In this paper, we establish a novel Generative Multimodal Reasoning paradigm and introduce DiffThinker, a diffusion-based reasoning framework. Conceptually, DiffThinker reformulates multimodal reasoning as a native generative image-to-image task, achieving superior logical consistency and spatial precision in vision-centric tasks. We perform a systematic comparison between DiffThinker and MLLMs, providing the first in-depth investigation into the intrinsic characteristics of this paradigm, revealing four core properties: efficiency, controllability, native parallelism, and collaboration. Extensive experiments across four domains (sequential planning, combinatorial optimization, constraint satisfaction, and spatial configuration) demonstrate that DiffThinker significantly outperforms leading closed source models including GPT-5 (+314.2\%) and Gemini-3-Flash (+111.6\%), as well as the fine-tuned Qwen3-VL-32B baseline (+39.0\%), highlighting generative multimodal reasoning as a promising approach for vision-centric reasoning.
PDF173January 3, 2026