Mise à l'échelle pilotée par l'évaluation pour la découverte scientifique
Evaluation-driven Scaling for Scientific Discovery
April 21, 2026
Auteurs: Haotian Ye, Haowei Lin, Jingyi Tang, Yizhen Luo, Caiyin Yang, Chang Su, Rahul Thapa, Rui Yang, Ruihua Liu, Zeyu Li, Chong Gao, Dachao Ding, Guangrong He, Miaolei Zhang, Lina Sun, Wenyang Wang, Yuchen Zhong, Zhuohao Shen, Di He, Jianzhu Ma, Stefano Ermon, Tongyang Li, Xiaowen Chu, James Zou, Yuzhi Xu
cs.AI
Résumé
Les modèles de langage sont de plus en plus utilisés dans la découverte scientifique pour générer des hypothèses, proposer des solutions candidates, implémenter des systèmes et les affiner itérativement. Au cœur de ces boucles d'essai-erreur se trouve l'évaluation : le processus d'obtention de retours sur les solutions candidates via des vérificateurs, des simulateurs ou des fonctions de score spécifiques à la tâche. Si les travaux antérieurs ont souligné l'importance de l'évaluation, ils n'ont pas explicitement formulé le problème de la mise à l'échelle des boucles de découverte pilotées par l'évaluation de manière principielle et efficace pour repousser les frontières de la découverte scientifique, un problème que cet article cherche à résoudre. Nous présentons Simple Test-time Evaluation-driven Scaling (SimpleTES), un cadre général qui combine stratégiquement l'exploration parallèle, l'affinement guidé par les retours et la sélection locale, révélant des gains substantiels obtenus en mettant à l'échelle les boucles de découverte pilotées par l'évaluation selon les bonnes dimensions. Sur 21 problèmes scientifiques couvrant six domaines, SimpleTES découvre des solutions à la pointe de l'état de l'art en utilisant des modèles open-source, surpassant systématiquement les modèles de référence et les pipelines d'optimisation sophistiqués. En particulier, nous avons accéléré l'algorithme LASSO d'un facteur supérieur à 2, conçu des politiques de routage de circuits quantiques réduisant la surcharge de portes de 24,5 %, et découvert de nouvelles constructions de recouvrement minimum d'Erdős dépassant les meilleurs résultats connus. Au-delà des découvertes novatrices, SimpleTES produit des historiques de trajectoires qui supervisent naturellement l'apprentissage guidé par les retours. Lorsqu'ils sont post-entraînés sur des trajectoires réussies, les modèles améliorent non seulement l'efficacité sur les problèmes connus, mais généralisent également à des problèmes inédits, découvrant des solutions que les modèles de base ne parviennent pas à trouver. Ensemble, nos résultats établissent la mise à l'échelle efficace des boucles pilotées par l'évaluation comme un axe central pour faire progresser la découverte scientifique assistée par LLM, et fournissent un cadre simple mais pratique pour concrétiser ces gains.
English
Language models are increasingly used in scientific discovery to generate hypotheses, propose candidate solutions, implement systems, and iteratively refine them. At the core of these trial-and-error loops lies evaluation: the process of obtaining feedback on candidate solutions via verifiers, simulators, or task-specific scoring functions. While prior work has highlighted the importance of evaluation, it has not explicitly formulated the problem of how evaluation-driven discovery loops can be scaled up in a principled and effective manner to push the boundaries of scientific discovery, a problem this paper seeks to address. We introduce Simple Test-time Evaluation-driven Scaling (SimpleTES), a general framework that strategically combines parallel exploration, feedback-driven refinement, and local selection, revealing substantial gains unlocked by scaling evaluation-driven discovery loops along the right dimensions. Across 21 scientific problems spanning six domains, SimpleTES discovers state-of-the-art solutions using gpt-oss models, consistently outperforming both frontier-model baselines and sophisticated optimization pipelines. Particularly, we sped up the widely used LASSO algorithm by over 2x, designed quantum circuit routing policies that reduce gate overhead by 24.5%, and discovered new Erdos minimum overlap constructions that surpass the best-known results. Beyond novel discoveries, SimpleTES produces trajectory-level histories that naturally supervise feedback-driven learning. When post-trained on successful trajectories, models not only improve efficiency on seen problems but also generalize to unseen problems, discovering solutions that base models fail to uncover. Together, our results establish effective evaluation-driven loop scaling as a central axis for advancing LLM-driven scientific discovery, and provide a simple yet practical framework for realizing these gains.