SciReasoner : Établir les bases du raisonnement scientifique à travers les disciplines
SciReasoner: Laying the Scientific Reasoning Ground Across Disciplines
September 25, 2025
papers.authors: Yizhou Wang, Chen Tang, Han Deng, Jiabei Xiao, Jiaqi Liu, Jianyu Wu, Jun Yao, Pengze Li, Encheng Su, Lintao Wang, Guohang Zhuang, Yuchen Ren, Ben Fei, Ming Hu, Xin Chen, Dongzhan Zhou, Junjun He, Xiangyu Yue, Zhenfei Yin, Jiamin Wu, Qihao Zheng, Yuhao Zhou, Huihui Xu, Chenglong Ma, Yan Lu, Wenlong Zhang, Chunfeng Song, Philip Torr, Shixiang Tang, Xinzhu Ma, Wanli Ouyang, Lei Bai
cs.AI
papers.abstract
Nous présentons un modèle de fondation pour le raisonnement scientifique qui aligne le langage naturel avec des représentations scientifiques hétérogènes. Le modèle est pré-entraîné sur un corpus de 206 milliards de tokens couvrant des textes scientifiques, des séquences pures et des paires séquence-texte, puis aligné via un apprentissage supervisé fin (SFT) sur 40 millions d'instructions, en utilisant un amorçage à froid progressif pour susciter des chaînes de pensée longues, et un apprentissage par renforcement avec un façonnage de récompense spécifique aux tâches, ce qui instille un raisonnement scientifique réfléchi. Il prend en charge quatre familles de capacités, couvrant jusqu'à 103 tâches à travers différents workflows : (i) traduction fidèle entre texte et formats scientifiques, (ii) extraction de texte/connaissances, (iii) prédiction de propriétés, (iv) classification de propriétés, (v) génération et conception de séquences inconditionnelles et conditionnelles. Par rapport aux systèmes spécialisés, notre approche élargit la couverture des instructions, améliore la généralisation inter-domaines et renforce la fidélité. Nous détaillons la curation des données et l'entraînement, et montrons que l'apprentissage interdisciplinaire renforce le transfert et la fiabilité en aval. Le modèle, les ensembles de données pour le réglage des instructions et le code d'évaluation sont open-source sur https://huggingface.co/SciReason et https://github.com/open-sciencelab/SciReason.
English
We present a scientific reasoning foundation model that aligns natural
language with heterogeneous scientific representations. The model is pretrained
on a 206B-token corpus spanning scientific text, pure sequences, and
sequence-text pairs, then aligned via SFT on 40M instructions, annealed
cold-start bootstrapping to elicit long-form chain-of-thought, and
reinforcement learning with task-specific reward shaping, which instills
deliberate scientific reasoning. It supports four capability families, covering
up to 103 tasks across workflows: (i) faithful translation between text and
scientific formats, (ii) text/knowledge extraction, (iii) property prediction,
(iv) property classification, (v) unconditional and conditional sequence
generation and design. Compared with specialist systems, our approach broadens
instruction coverage, improves cross-domain generalization, and enhances
fidelity. We detail data curation and training and show that cross-discipline
learning strengthens transfer and downstream reliability. The model, instruct
tuning datasets and the evaluation code are open-sourced at
https://huggingface.co/SciReason and
https://github.com/open-sciencelab/SciReason.