ChatPaper.aiChatPaper

Innovador-VL: Un Modelo de Lenguaje Multimodal a Gran Escala para el Descubrimiento Científico

Innovator-VL: A Multimodal Large Language Model for Scientific Discovery

January 27, 2026
Autores: Zichen Wen, Boxue Yang, Shuang Chen, Yaojie Zhang, Yuhang Han, Junlong Ke, Cong Wang, Yicheng Fu, Jiawang Zhao, Jiangchao Yao, Xi Fang, Zhen Wang, Henxing Cai, Lin Yao, Zhifeng Gao, Yanhui Hong, Nang Yuan, Yixuan Li, Guojiang Zhao, Haoyi Tao, Nan Wang, Han Lyu, Guolin Ke, Ning Liao, Xiaoxing Wang, Kai Chen, Zhiyu Li, Feiyu Xiong, Sihan Hu, Kun Chen, Yanfeng Wang, Weinan E, Linfeng Zhang, Linfeng Zhang
cs.AI

Resumen

Presentamos Innovator-VL, un modelo lingüístico grande multimodal científico diseñado para impulsar la comprensión y el razonamiento en diversos dominios científicos, manteniendo al mismo tiempo un rendimiento excelente en tareas visuales generales. A diferencia de la tendencia de depender de preentrenamientos masivos específicos de dominio y pipelines opacos, nuestro trabajo demuestra que un diseño de entrenamiento basado en principios y una metodología transparente pueden producir una sólida inteligencia científica con requisitos de datos sustancialmente reducidos. (i) En primer lugar, ofrecemos un pipeline de entrenamiento completamente transparente y reproducible de extremo a extremo, que abarca la recopilación, limpieza, preprocesamiento, ajuste fino supervisado, aprendizaje por refuerzo y evaluación de datos, junto con recetas detalladas de optimización. Esto facilita la extensión sistemática por parte de la comunidad. (ii) En segundo lugar, Innovator-VL exhibe una notable eficiencia de datos, logrando un rendimiento competitivo en diversas tareas científicas utilizando menos de cinco millones de muestras curadas y sin un preentrenamiento a gran escala. Estos resultados subrayan que se puede lograr un razonamiento efectivo mediante una selección de datos basada en principios, en lugar de un escalado indiscriminado. (iii) En tercer lugar, Innovator-VL demuestra una fuerte generalización, alcanzando un rendimiento competitivo en benchmarks de visión general, razonamiento multimodal y científicos. Esto indica que la alineación científica puede integrarse en un modelo unificado sin comprometer las capacidades de propósito general. Nuestras prácticas sugieren que es posible construir modelos multimodales científicos eficientes, reproducibles y de alto rendimiento incluso sin datos a gran escala, proporcionando una base práctica para futuras investigaciones.
English
We present Innovator-VL, a scientific multimodal large language model designed to advance understanding and reasoning across diverse scientific domains while maintaining excellent performance on general vision tasks. Contrary to the trend of relying on massive domain-specific pretraining and opaque pipelines, our work demonstrates that principled training design and transparent methodology can yield strong scientific intelligence with substantially reduced data requirements. (i) First, we provide a fully transparent, end-to-end reproducible training pipeline, covering data collection, cleaning, preprocessing, supervised fine-tuning, reinforcement learning, and evaluation, along with detailed optimization recipes. This facilitates systematic extension by the community. (ii) Second, Innovator-VL exhibits remarkable data efficiency, achieving competitive performance on various scientific tasks using fewer than five million curated samples without large-scale pretraining. These results highlight that effective reasoning can be achieved through principled data selection rather than indiscriminate scaling. (iii) Third, Innovator-VL demonstrates strong generalization, achieving competitive performance on general vision, multimodal reasoning, and scientific benchmarks. This indicates that scientific alignment can be integrated into a unified model without compromising general-purpose capabilities. Our practices suggest that efficient, reproducible, and high-performing scientific multimodal models can be built even without large-scale data, providing a practical foundation for future research.
PDF772February 8, 2026