ChatPaper.aiChatPaper

SciReasoner: Stabilire le Basi del Ragionamento Scientifico Attraverso le Discipline

SciReasoner: Laying the Scientific Reasoning Ground Across Disciplines

September 25, 2025
Autori: Yizhou Wang, Chen Tang, Han Deng, Jiabei Xiao, Jiaqi Liu, Jianyu Wu, Jun Yao, Pengze Li, Encheng Su, Lintao Wang, Guohang Zhuang, Yuchen Ren, Ben Fei, Ming Hu, Xin Chen, Dongzhan Zhou, Junjun He, Xiangyu Yue, Zhenfei Yin, Jiamin Wu, Qihao Zheng, Yuhao Zhou, Huihui Xu, Chenglong Ma, Yan Lu, Wenlong Zhang, Chunfeng Song, Philip Torr, Shixiang Tang, Xinzhu Ma, Wanli Ouyang, Lei Bai
cs.AI

Abstract

Presentiamo un modello fondamentale per il ragionamento scientifico che allinea il linguaggio naturale con rappresentazioni scientifiche eterogenee. Il modello è pre-addestrato su un corpus di 206 miliardi di token che comprende testi scientifici, sequenze pure e coppie sequenza-testo, poi allineato tramite SFT su 40 milioni di istruzioni, avviato con un bootstrap a freddo per elicitare catene di pensiero lunghe e rafforzato con apprendimento per rinforzo e modellazione di ricompense specifiche per il compito, il che favorisce un ragionamento scientifico deliberato. Supporta quattro famiglie di capacità, coprendo fino a 103 task in diversi flussi di lavoro: (i) traduzione fedele tra testo e formati scientifici, (ii) estrazione di testo/conoscenza, (iii) previsione di proprietà, (iv) classificazione di proprietà, (v) generazione e progettazione di sequenze incondizionate e condizionate. Rispetto ai sistemi specializzati, il nostro approccio amplia la copertura delle istruzioni, migliora la generalizzazione cross-dominio e aumenta la fedeltà. Descriviamo in dettaglio la curatela dei dati e l'addestramento, dimostrando che l'apprendimento interdisciplinare rafforza il trasferimento e l'affidabilità downstream. Il modello, i dataset per il fine-tuning delle istruzioni e il codice di valutazione sono open-source su https://huggingface.co/SciReason e https://github.com/open-sciencelab/SciReason.
English
We present a scientific reasoning foundation model that aligns natural language with heterogeneous scientific representations. The model is pretrained on a 206B-token corpus spanning scientific text, pure sequences, and sequence-text pairs, then aligned via SFT on 40M instructions, annealed cold-start bootstrapping to elicit long-form chain-of-thought, and reinforcement learning with task-specific reward shaping, which instills deliberate scientific reasoning. It supports four capability families, covering up to 103 tasks across workflows: (i) faithful translation between text and scientific formats, (ii) text/knowledge extraction, (iii) property prediction, (iv) property classification, (v) unconditional and conditional sequence generation and design. Compared with specialist systems, our approach broadens instruction coverage, improves cross-domain generalization, and enhances fidelity. We detail data curation and training and show that cross-discipline learning strengthens transfer and downstream reliability. The model, instruct tuning datasets and the evaluation code are open-sourced at https://huggingface.co/SciReason and https://github.com/open-sciencelab/SciReason.
PDF992September 26, 2025