Desarrollo del Contexto en Modelos Omni
Context Unrolling in Omni Models
April 23, 2026
Autores: Ceyuan Yang, Zhijie Lin, Yang Zhao, Fei Xiao, Hao He, Qi Zhao, Chaorui Deng, Kunchang Li, Zihan Ding, Yuwei Guo, Fuyun Wang, Fangqi Zhu, Xiaonan Nie, Shenhan Zhu, Shanchuan Lin, Hongsheng Li, Weilin Huang, Guang Shi, Haoqi Fan
cs.AI
Resumen
Presentamos Omni, un modelo multimodal unificado entrenado de forma nativa en diversas modalidades, incluyendo texto, imágenes, vídeos, geometría 3D y representaciones ocultas. Descubrimos que dicho entrenamiento permite el Despliegue Contextual, donde el modelo razona explícitamente a través de múltiples representaciones modales antes de generar predicciones. Este proceso permite al modelo agregar información complementaria entre modalidades heterogéneas, facilitando una aproximación más fiel al manifold de conocimiento multimodal compartido y mejorando la fidelidad del razonamiento subsiguiente. Como resultado, Omni logra un rendimiento sólido en benchmarks de generación y comprensión multimodal, mientras demuestra capacidades avanzadas de razonamiento multimodal, incluyendo la generación contextual de texto, imagen, vídeo y geometría 3D.
English
We present Omni, a unified multimodal model natively trained on diverse modalities, including text, images, videos, 3D geometry, and hidden representations. We find that such training enables Context Unrolling, where the model explicitly reasons across multiple modal representations before producing predictions. This process enables the model to aggregate complementary information across heterogeneous modalities, facilitating a more faithful approximation of the shared multimodal knowledge manifold and improving downstream reasoning fidelity. As a result, Omni achieves strong performance on both multimodal generation and understanding benchmarks, while demonstrating advanced multimodal reasoning capabilities, including in-context generation of text, image, video, and 3D geometry.