ChatPaper.aiChatPaper

MegaScience: Spingere le Frontiere dei Dataset Post-Addestramento per il Ragionamento Scientifico

MegaScience: Pushing the Frontiers of Post-Training Datasets for Science Reasoning

July 22, 2025
Autori: Run-Ze Fan, Zengzhi Wang, Pengfei Liu
cs.AI

Abstract

Il ragionamento scientifico è fondamentale per sviluppare scienziati AI e supportare i ricercatori umani nell'avanzare le frontiere della scoperta nelle scienze naturali. Tuttavia, la comunità open-source si è principalmente concentrata sulla matematica e sulla programmazione, trascurando il dominio scientifico, principalmente a causa dell'assenza di dataset aperti, su larga scala, di alta qualità e verificabili per il ragionamento scientifico. Per colmare questa lacuna, presentiamo innanzitutto TextbookReasoning, un dataset aperto che include risposte di riferimento veritiere estratte da 12.000 libri di testo scientifici universitari, comprendente 650.000 domande di ragionamento che coprono 7 discipline scientifiche. Introduciamo inoltre MegaScience, una miscela su larga scala di dataset open-source di alta qualità per un totale di 1,25 milioni di istanze, sviluppata attraverso studi di ablazione sistematici che valutano varie metodologie di selezione dei dati per identificare il sottoinsieme ottimale per ciascun dataset scientifico disponibile pubblicamente. Nel frattempo, costruiamo un sistema di valutazione completo che copre diverse materie e tipi di domande su 15 benchmark, incorporando strategie complete di estrazione delle risposte per garantire metriche di valutazione accurate. I nostri esperimenti dimostrano che i nostri dataset raggiungono prestazioni superiori e un'efficienza di addestramento maggiore con lunghezze di risposta più concise rispetto ai dataset scientifici open-source esistenti. Inoltre, addestriamo i modelli base delle serie Llama3.1, Qwen2.5 e Qwen3 su MegaScience, che superano significativamente in media i corrispondenti modelli ufficiali instruct. In aggiunta, MegaScience mostra una maggiore efficacia per modelli più grandi e potenti, suggerendo un vantaggio di scalabilità per l'ottimizzazione scientifica. Rilasciamo alla comunità la nostra pipeline di curatela dei dati, il sistema di valutazione, i dataset e sette modelli addestrati per promuovere la ricerca sul ragionamento scientifico.
English
Scientific reasoning is critical for developing AI scientists and supporting human researchers in advancing the frontiers of natural science discovery. However, the open-source community has primarily focused on mathematics and coding while neglecting the scientific domain, largely due to the absence of open, large-scale, high-quality, verifiable scientific reasoning datasets. To bridge this gap, we first present TextbookReasoning, an open dataset featuring truthful reference answers extracted from 12k university-level scientific textbooks, comprising 650k reasoning questions spanning 7 scientific disciplines. We further introduce MegaScience, a large-scale mixture of high-quality open-source datasets totaling 1.25 million instances, developed through systematic ablation studies that evaluate various data selection methodologies to identify the optimal subset for each publicly available scientific dataset. Meanwhile, we build a comprehensive evaluation system covering diverse subjects and question types across 15 benchmarks, incorporating comprehensive answer extraction strategies to ensure accurate evaluation metrics. Our experiments demonstrate that our datasets achieve superior performance and training efficiency with more concise response lengths compared to existing open-source scientific datasets. Furthermore, we train Llama3.1, Qwen2.5, and Qwen3 series base models on MegaScience, which significantly outperform the corresponding official instruct models in average performance. In addition, MegaScience exhibits greater effectiveness for larger and stronger models, suggesting a scaling benefit for scientific tuning. We release our data curation pipeline, evaluation system, datasets, and seven trained models to the community to advance scientific reasoning research.
PDF552July 23, 2025