ChatPaper.aiChatPaper

SciReasoner: Grundlagen des wissenschaftlichen Denkens über Disziplinen hinweg

SciReasoner: Laying the Scientific Reasoning Ground Across Disciplines

September 25, 2025
papers.authors: Yizhou Wang, Chen Tang, Han Deng, Jiabei Xiao, Jiaqi Liu, Jianyu Wu, Jun Yao, Pengze Li, Encheng Su, Lintao Wang, Guohang Zhuang, Yuchen Ren, Ben Fei, Ming Hu, Xin Chen, Dongzhan Zhou, Junjun He, Xiangyu Yue, Zhenfei Yin, Jiamin Wu, Qihao Zheng, Yuhao Zhou, Huihui Xu, Chenglong Ma, Yan Lu, Wenlong Zhang, Chunfeng Song, Philip Torr, Shixiang Tang, Xinzhu Ma, Wanli Ouyang, Lei Bai
cs.AI

papers.abstract

Wir präsentieren ein wissenschaftliches Reasoning-Foundation-Modell, das natürliche Sprache mit heterogenen wissenschaftlichen Repräsentationen in Einklang bringt. Das Modell wurde auf einem 206B-Token-Korpus vortrainiert, der wissenschaftliche Texte, reine Sequenzen und Sequenz-Text-Paare umfasst, und anschließend durch SFT auf 40M Anweisungen ausgerichtet, wobei ein gekühlter Start mit Bootstrapping verwendet wurde, um langkettiges Denken (Chain-of-Thought) zu fördern, sowie Reinforcement Learning mit aufgaben spezifischer Belohnungsformung, um gezieltes wissenschaftliches Reasoning zu etablieren. Es unterstützt vier Fähigkeitsfamilien, die bis zu 103 Aufgaben in verschiedenen Workflows abdecken: (i) treue Übersetzung zwischen Text und wissenschaftlichen Formaten, (ii) Text-/Wissensextraktion, (iii) Eigenschaftsvorhersage, (iv) Eigenschaftsklassifizierung, (v) bedingte und unbedingte Sequenzgenerierung und -gestaltung. Im Vergleich zu spezialisierten Systemen erweitert unser Ansatz die Abdeckung von Anweisungen, verbessert die domänenübergreifende Generalisierung und erhöht die Genauigkeit. Wir erläutern die Datenkuratierung und das Training und zeigen, dass fachübergreifendes Lernen die Übertragbarkeit und die Zuverlässigkeit in nachgelagerten Aufgaben stärkt. Das Modell, die Instruktions-Tuning-Datensätze und der Evaluationscode sind unter https://huggingface.co/SciReason und https://github.com/open-sciencelab/SciReason quelloffen verfügbar.
English
We present a scientific reasoning foundation model that aligns natural language with heterogeneous scientific representations. The model is pretrained on a 206B-token corpus spanning scientific text, pure sequences, and sequence-text pairs, then aligned via SFT on 40M instructions, annealed cold-start bootstrapping to elicit long-form chain-of-thought, and reinforcement learning with task-specific reward shaping, which instills deliberate scientific reasoning. It supports four capability families, covering up to 103 tasks across workflows: (i) faithful translation between text and scientific formats, (ii) text/knowledge extraction, (iii) property prediction, (iv) property classification, (v) unconditional and conditional sequence generation and design. Compared with specialist systems, our approach broadens instruction coverage, improves cross-domain generalization, and enhances fidelity. We detail data curation and training and show that cross-discipline learning strengthens transfer and downstream reliability. The model, instruct tuning datasets and the evaluation code are open-sourced at https://huggingface.co/SciReason and https://github.com/open-sciencelab/SciReason.
PDF912September 26, 2025