Innovator-VL: Een Multimodaal Taalmodel voor Wetenschappelijke Ontdekking
Innovator-VL: A Multimodal Large Language Model for Scientific Discovery
January 27, 2026
Auteurs: Zichen Wen, Boxue Yang, Shuang Chen, Yaojie Zhang, Yuhang Han, Junlong Ke, Cong Wang, Yicheng Fu, Jiawang Zhao, Jiangchao Yao, Xi Fang, Zhen Wang, Henxing Cai, Lin Yao, Zhifeng Gao, Yanhui Hong, Nang Yuan, Yixuan Li, Guojiang Zhao, Haoyi Tao, Nan Wang, Han Lyu, Guolin Ke, Ning Liao, Xiaoxing Wang, Kai Chen, Zhiyu Li, Feiyu Xiong, Sihan Hu, Kun Chen, Yanfeng Wang, Weinan E, Linfeng Zhang, Linfeng Zhang
cs.AI
Samenvatting
Wij presenteren Innovator-VL, een wetenschappelijk multimodaal groot taalmodel dat is ontworpen om het begrip en redeneervermogen in diverse wetenschappelijke domeinen te bevorderen, terwijl het uitstekende prestaties levert op algemene visuele taken. In tegenstelling tot de trend om te vertrouwen op massale domeinspecifieke voorafgaande training en ondoorzichtige pijplijnen, toont ons werk aan dat een principiële trainingsopzet en transparante methodologie tot sterke wetenschappelijke intelligentie kunnen leiden met aanzienlijk verminderde gegevensbehoeften. (i) Ten eerste bieden wij een volledig transparante, end-to-end reproduceerbare trainingspijplijn, die gegevensverzameling, -opschoning, -voorbewerking, supervised fine-tuning, reinforcement learning en evaluatie omvat, samen met gedetailleerde optimalisatierecepten. Dit vergemakkelijkt een systematische uitbreiding door de gemeenschap. (ii) Ten tweede vertoont Innovator-VL opmerkelijke gegevensefficiëntie door competitieve prestaties te behalen op diverse wetenschappelijke taken met minder dan vijf miljoen gecureerde samples, zonder grootschalige voorafgaande training. Deze resultaten benadrukken dat effectief redeneren kan worden bereikt door principiële gegevensselectie in plaats van ongericht schalen. (iii) Ten derde toont Innovator-VL sterke generalisatie door competitieve prestaties te leveren op algemene visuele, multimodale redeneer- en wetenschappelijke benchmarks. Dit geeft aan dat wetenschappelijke afstemming kan worden geïntegreerd in een uniform model zonder algemene capaciteiten aan te tasten. Onze praktijken suggereren dat efficiënte, reproduceerbare en hoogpresterende wetenschappelijke multimodale modellen kunnen worden gebouwd, zelfs zonder grootschalige gegevens, wat een praktische basis biedt voor toekomstig onderzoek.
English
We present Innovator-VL, a scientific multimodal large language model designed to advance understanding and reasoning across diverse scientific domains while maintaining excellent performance on general vision tasks. Contrary to the trend of relying on massive domain-specific pretraining and opaque pipelines, our work demonstrates that principled training design and transparent methodology can yield strong scientific intelligence with substantially reduced data requirements. (i) First, we provide a fully transparent, end-to-end reproducible training pipeline, covering data collection, cleaning, preprocessing, supervised fine-tuning, reinforcement learning, and evaluation, along with detailed optimization recipes. This facilitates systematic extension by the community. (ii) Second, Innovator-VL exhibits remarkable data efficiency, achieving competitive performance on various scientific tasks using fewer than five million curated samples without large-scale pretraining. These results highlight that effective reasoning can be achieved through principled data selection rather than indiscriminate scaling. (iii) Third, Innovator-VL demonstrates strong generalization, achieving competitive performance on general vision, multimodal reasoning, and scientific benchmarks. This indicates that scientific alignment can be integrated into a unified model without compromising general-purpose capabilities. Our practices suggest that efficient, reproducible, and high-performing scientific multimodal models can be built even without large-scale data, providing a practical foundation for future research.