**InternVL-U: Democratización de Modelos Multimodales Unificados para la Comprensión, el Razonamiento, la Generación y la Edición**
InternVL-U: Democratizing Unified Multimodal Models for Understanding, Reasoning, Generation and Editing
March 10, 2026
Autores: Changyao Tian, Danni Yang, Guanzhou Chen, Erfei Cui, Zhaokai Wang, Yuchen Duan, Penghao Yin, Sitao Chen, Ganlin Yang, Mingxin Liu, Zirun Zhu, Ziqian Fan, Leyao Gu, Haomin Wang, Qi Wei, Jinhui Yin, Xue Yang, Zhihang Zhong, Qi Qin, Yi Xin, Bin Fu, Yihao Liu, Jiaye Ge, Qipeng Guo, Gen Luo, Hongsheng Li, Yu Qiao, Kai Chen, Hongjie Zhang
cs.AI
Resumen
Los modelos multimodales unificados (UMMs) que integran comprensión, razonamiento, generación y edición enfrentan disyuntivas inherentes entre mantener una sólida comprensión semántica y adquirir capacidades de generación potentes. En este informe, presentamos InternVL-U, un UMM ligero de 4B parámetros que democratiza estas capacidades dentro de un marco unificado. Guiado por los principios de modelado contextual unificado y diseño modular específico por modalidad con representaciones visuales desacopladas, InternVL-U integra un Modelo de Lenguaje Grande Multimodal (MLLM) de última generación con una cabeza de generación visual especializada basada en MMDiT. Para cerrar aún más la brecha entre la generación estética y la inteligencia de alto nivel, construimos un pipeline integral de síntesis de datos dirigido a tareas de alta densidad semántica, como la representación de texto y el razonamiento científico, bajo un paradigma centrado en el razonamiento que aprovecha la Cadena de Pensamiento (CoT) para alinear mejor la intención abstracta del usuario con los detalles de generación visual a nivel granular. Experimentos exhaustivos demuestran que InternVL-U logra un equilibrio rendimiento-eficiencia superior. A pesar de utilizar solo 4B parámetros, supera consistentemente a los modelos base unificados con escalas más de 3 veces mayores, como BAGEL (14B), en diversas tareas de generación y edición, manteniendo al mismo tiempo sólidas capacidades de comprensión y razonamiento multimodal.
English
Unified multimodal models (UMMs) that integrate understanding, reasoning, generation, and editing face inherent trade-offs between maintaining strong semantic comprehension and acquiring powerful generation capabilities. In this report, we present InternVL-U, a lightweight 4B-parameter UMM that democratizes these capabilities within a unified framework. Guided by the principles of unified contextual modeling and modality-specific modular design with decoupled visual representations, InternVL-U integrates a state-of-the-art Multimodal Large Language Model (MLLM) with a specialized MMDiT-based visual generation head. To further bridge the gap between aesthetic generation and high-level intelligence, we construct a comprehensive data synthesis pipeline targeting high-semantic-density tasks, such as text rendering and scientific reasoning, under a reasoning-centric paradigm that leverages Chain-of-Thought (CoT) to better align abstract user intent with fine-grained visual generation details. Extensive experiments demonstrate that InternVL-U achieves a superior performance - efficiency balance. Despite using only 4B parameters, it consistently outperforms unified baseline models with over 3x larger scales such as BAGEL (14B) on various generation and editing tasks, while retaining strong multimodal understanding and reasoning capabilities.