SciReasoner: Stabilire le Basi del Ragionamento Scientifico Attraverso le Discipline
SciReasoner: Laying the Scientific Reasoning Ground Across Disciplines
September 25, 2025
Autori: Yizhou Wang, Chen Tang, Han Deng, Jiabei Xiao, Jiaqi Liu, Jianyu Wu, Jun Yao, Pengze Li, Encheng Su, Lintao Wang, Guohang Zhuang, Yuchen Ren, Ben Fei, Ming Hu, Xin Chen, Dongzhan Zhou, Junjun He, Xiangyu Yue, Zhenfei Yin, Jiamin Wu, Qihao Zheng, Yuhao Zhou, Huihui Xu, Chenglong Ma, Yan Lu, Wenlong Zhang, Chunfeng Song, Philip Torr, Shixiang Tang, Xinzhu Ma, Wanli Ouyang, Lei Bai
cs.AI
Abstract
Presentiamo un modello fondamentale per il ragionamento scientifico che allinea il linguaggio naturale con rappresentazioni scientifiche eterogenee. Il modello è pre-addestrato su un corpus di 206 miliardi di token che comprende testi scientifici, sequenze pure e coppie sequenza-testo, poi allineato tramite SFT su 40 milioni di istruzioni, avviato con un bootstrap a freddo per elicitare catene di pensiero lunghe e rafforzato con apprendimento per rinforzo e modellazione di ricompense specifiche per il compito, il che favorisce un ragionamento scientifico deliberato. Supporta quattro famiglie di capacità, coprendo fino a 103 task in diversi flussi di lavoro: (i) traduzione fedele tra testo e formati scientifici, (ii) estrazione di testo/conoscenza, (iii) previsione di proprietà, (iv) classificazione di proprietà, (v) generazione e progettazione di sequenze incondizionate e condizionate. Rispetto ai sistemi specializzati, il nostro approccio amplia la copertura delle istruzioni, migliora la generalizzazione cross-dominio e aumenta la fedeltà. Descriviamo in dettaglio la curatela dei dati e l'addestramento, dimostrando che l'apprendimento interdisciplinare rafforza il trasferimento e l'affidabilità downstream. Il modello, i dataset per il fine-tuning delle istruzioni e il codice di valutazione sono open-source su https://huggingface.co/SciReason e https://github.com/open-sciencelab/SciReason.
English
We present a scientific reasoning foundation model that aligns natural
language with heterogeneous scientific representations. The model is pretrained
on a 206B-token corpus spanning scientific text, pure sequences, and
sequence-text pairs, then aligned via SFT on 40M instructions, annealed
cold-start bootstrapping to elicit long-form chain-of-thought, and
reinforcement learning with task-specific reward shaping, which instills
deliberate scientific reasoning. It supports four capability families, covering
up to 103 tasks across workflows: (i) faithful translation between text and
scientific formats, (ii) text/knowledge extraction, (iii) property prediction,
(iv) property classification, (v) unconditional and conditional sequence
generation and design. Compared with specialist systems, our approach broadens
instruction coverage, improves cross-domain generalization, and enhances
fidelity. We detail data curation and training and show that cross-discipline
learning strengthens transfer and downstream reliability. The model, instruct
tuning datasets and the evaluation code are open-sourced at
https://huggingface.co/SciReason and
https://github.com/open-sciencelab/SciReason.