科学的発見のための評価駆動型スケーリング
Evaluation-driven Scaling for Scientific Discovery
April 21, 2026
著者: Haotian Ye, Haowei Lin, Jingyi Tang, Yizhen Luo, Caiyin Yang, Chang Su, Rahul Thapa, Rui Yang, Ruihua Liu, Zeyu Li, Chong Gao, Dachao Ding, Guangrong He, Miaolei Zhang, Lina Sun, Wenyang Wang, Yuchen Zhong, Zhuohao Shen, Di He, Jianzhu Ma, Stefano Ermon, Tongyang Li, Xiaowen Chu, James Zou, Yuzhi Xu
cs.AI
要旨
言語モデルは、仮説の生成、候補解の提案、システムの実装、そしてそれらの反復的な改善を通じて、科学的発見においてますます重要な役割を果たしている。これらの試行錯誤ループの核心には、検証器、シミュレータ、またはタスク固有のスコアリング関数を用いて候補解に関するフィードバックを得るプロセスである「評価」が存在する。先行研究は評価の重要性を指摘してきたが、評価駆動型発見ループを原理的かつ効果的にスケールアップし、科学的発見の境界を押し広げる方法という問題を明確に定式化してこなかった。本論文はこの問題に取り組む。我々は、並列探索、フィードバック駆動型改善、局所選択を戦略的に組み合わせた一般的なフレームワークであるSimple Test-time Evaluation-driven Scaling(SimpleTES)を提案し、適切な次元に沿って評価駆動型発見ループをスケールさせることで解き放たれる大幅な性能向上を明らかにする。6つの領域にわたる21の科学的課題において、SimpleTESはgpt-ossモデルを用いて最先端の解を発見し、フロンティアモデルのベースラインと洗練された最適化パイプラインの両方を一貫して上回った。具体的には、広く使用されているLASSOアルゴリズムを2倍以上高速化し、ゲートオーバーヘッドを24.5%削減する量子回路ルーティングポリシーを設計し、既知の最良結果を上回る新たなエルデシュ最小重複構成を発見した。新規発見に加えて、SimpleTESはフィードバック駆動学習を自然に監督する軌跡レベルの履歴を生成する。成功した軌跡で事後学習すると、モデルは既知課題の効率が向上するだけでなく、未知課題へも一般化し、ベースモデルが発見できない解を見出す。以上の結果は、効果的な評価駆動ループのスケーリングがLLM駆動科学の発展における中心的な軸であることを示し、その利益を実現するためのシンプルかつ実用的なフレームワークを提供する。
English
Language models are increasingly used in scientific discovery to generate hypotheses, propose candidate solutions, implement systems, and iteratively refine them. At the core of these trial-and-error loops lies evaluation: the process of obtaining feedback on candidate solutions via verifiers, simulators, or task-specific scoring functions. While prior work has highlighted the importance of evaluation, it has not explicitly formulated the problem of how evaluation-driven discovery loops can be scaled up in a principled and effective manner to push the boundaries of scientific discovery, a problem this paper seeks to address. We introduce Simple Test-time Evaluation-driven Scaling (SimpleTES), a general framework that strategically combines parallel exploration, feedback-driven refinement, and local selection, revealing substantial gains unlocked by scaling evaluation-driven discovery loops along the right dimensions. Across 21 scientific problems spanning six domains, SimpleTES discovers state-of-the-art solutions using gpt-oss models, consistently outperforming both frontier-model baselines and sophisticated optimization pipelines. Particularly, we sped up the widely used LASSO algorithm by over 2x, designed quantum circuit routing policies that reduce gate overhead by 24.5%, and discovered new Erdos minimum overlap constructions that surpass the best-known results. Beyond novel discoveries, SimpleTES produces trajectory-level histories that naturally supervise feedback-driven learning. When post-trained on successful trajectories, models not only improve efficiency on seen problems but also generalize to unseen problems, discovering solutions that base models fail to uncover. Together, our results establish effective evaluation-driven loop scaling as a central axis for advancing LLM-driven scientific discovery, and provide a simple yet practical framework for realizing these gains.