ChatPaper.aiChatPaper

Innovator-VL: Ein multimodales großes Sprachmodell für wissenschaftliche Entdeckungen

Innovator-VL: A Multimodal Large Language Model for Scientific Discovery

January 27, 2026
papers.authors: Zichen Wen, Boxue Yang, Shuang Chen, Yaojie Zhang, Yuhang Han, Junlong Ke, Cong Wang, Yicheng Fu, Jiawang Zhao, Jiangchao Yao, Xi Fang, Zhen Wang, Henxing Cai, Lin Yao, Zhifeng Gao, Yanhui Hong, Nang Yuan, Yixuan Li, Guojiang Zhao, Haoyi Tao, Nan Wang, Han Lyu, Guolin Ke, Ning Liao, Xiaoxing Wang, Kai Chen, Zhiyu Li, Feiyu Xiong, Sihan Hu, Kun Chen, Yanfeng Wang, Weinan E, Linfeng Zhang, Linfeng Zhang
cs.AI

papers.abstract

Wir stellen Innovator-VL vor, ein wissenschaftliches multimodales großes Sprachmodell, das entwickelt wurde, um das Verständnis und das reasoning in verschiedenen wissenschaftlichen Domänen voranzutreiben und dabei eine exzellente Leistung bei allgemeinen Vision-Aufgaben beizubehalten. Im Gegensatz zum Trend, der auf massives domänenspezifisches Pre-Training und undurchsichtige Pipelines setzt, zeigt unsere Arbeit, dass ein prinzipiell durchdachtes Trainingsdesign und eine transparente Methodologie eine starke wissenschaftliche Intelligenz mit deutlich reduziertem Datenbedarf erzielen können. (i) Erstens bieten wir eine vollständig transparente, end-to-end reproduzierbare Trainingspipeline, die Datensammlung, -bereinigung, -vorverarbeitung, supervised Fine-Tuning, Reinforcement Learning und Evaluation sowie detaillierte Optimierungsrezepte abdeckt. Dies erleichtert die systematische Erweiterung durch die Community. (ii) Zweitens weist Innovator-VL eine bemerkenswerte Dateneffizienz auf und erzielt mit weniger als fünf Millionen kuratierten Samples und ohne groß angelegtes Pre-Training eine wettbewerbsfähige Leistung bei verschiedenen wissenschaftlichen Aufgaben. Diese Ergebnisse unterstreichen, dass effektives Reasoning durch prinzipielle Datenauswahl anstelle von wahlloser Skalierung erreicht werden kann. (iii) Drittens demonstriert Innovator-VL eine starke Generalisierungsfähigkeit, indem es auf Benchmarks für allgemeine Vision-Aufgaben, multimodales Reasoning und wissenschaftliche Fragestellungen wettbewerbsfähig abschneidet. Dies zeigt, dass wissenschaftliche Ausrichtung in ein einheitliches Modell integriert werden kann, ohne die allgemeinen Fähigkeiten zu beeinträchtigen. Unsere Praxis legt nahe, dass effiziente, reproduzierbare und leistungsstarke wissenschaftliche multimodale Modelle auch ohne große Datenmengen aufgebaut werden können, was eine praktische Grundlage für zukünftige Forschung bietet.
English
We present Innovator-VL, a scientific multimodal large language model designed to advance understanding and reasoning across diverse scientific domains while maintaining excellent performance on general vision tasks. Contrary to the trend of relying on massive domain-specific pretraining and opaque pipelines, our work demonstrates that principled training design and transparent methodology can yield strong scientific intelligence with substantially reduced data requirements. (i) First, we provide a fully transparent, end-to-end reproducible training pipeline, covering data collection, cleaning, preprocessing, supervised fine-tuning, reinforcement learning, and evaluation, along with detailed optimization recipes. This facilitates systematic extension by the community. (ii) Second, Innovator-VL exhibits remarkable data efficiency, achieving competitive performance on various scientific tasks using fewer than five million curated samples without large-scale pretraining. These results highlight that effective reasoning can be achieved through principled data selection rather than indiscriminate scaling. (iii) Third, Innovator-VL demonstrates strong generalization, achieving competitive performance on general vision, multimodal reasoning, and scientific benchmarks. This indicates that scientific alignment can be integrated into a unified model without compromising general-purpose capabilities. Our practices suggest that efficient, reproducible, and high-performing scientific multimodal models can be built even without large-scale data, providing a practical foundation for future research.
PDF531January 30, 2026