SR-Scientist : Découverte d'équations scientifiques avec une IA agentique
SR-Scientist: Scientific Equation Discovery With Agentic AI
October 13, 2025
papers.authors: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI
papers.abstract
Récemment, les modèles de langage de grande taille (LLMs) ont été appliqués à la découverte d'équations scientifiques, exploitant leurs connaissances scientifiques intégrées pour la génération d'hypothèses. Cependant, les méthodes actuelles limitent généralement les LLMs au rôle de proposition d'équations au sein d'algorithmes de recherche tels que la programmation génétique. Dans cet article, nous présentons SR-Scientist, un cadre qui élève le LLM d'un simple proposeur d'équations à un scientifique IA autonome qui écrit du code pour analyser les données, implémente l'équation sous forme de code, la soumet à l'évaluation et optimise l'équation en fonction des retours expérimentaux. Plus précisément, nous intégrons l'interpréteur de code dans un ensemble d'outils pour l'analyse des données et l'évaluation des équations. L'agent est instruit pour optimiser l'équation en utilisant ces outils sur une longue période avec un minimum de pipelines définis par l'homme. Les résultats empiriques montrent que SR-Scientist surpasse les méthodes de référence par une marge absolue de 6 % à 35 % sur des ensembles de données couvrant quatre disciplines scientifiques. De plus, nous démontrons la robustesse de notre méthode au bruit, la généralisation des équations découvertes à des données hors domaine et leur précision symbolique. Par ailleurs, nous développons un cadre d'apprentissage par renforcement de bout en bout pour améliorer les capacités de l'agent.
English
Recently, Large Language Models (LLMs) have been applied to scientific
equation discovery, leveraging their embedded scientific knowledge for
hypothesis generation. However, current methods typically confine LLMs to the
role of an equation proposer within search algorithms like genetic programming.
In this paper, we present SR-Scientist, a framework that elevates the LLM from
a simple equation proposer to an autonomous AI scientist that writes code to
analyze data, implements the equation as code, submits it for evaluation, and
optimizes the equation based on experimental feedback. Specifically, we wrap
the code interpreter into a set of tools for data analysis and equation
evaluation. The agent is instructed to optimize the equation by utilizing these
tools over a long horizon with minimal human-defined pipelines. Empirical
results show that SR-Scientist outperforms baseline methods by an absolute
margin of 6% to 35% on datasets covering four science disciplines.
Additionally, we demonstrate our method's robustness to noise, the
generalization of the discovered equations to out-of-domain data, and their
symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning
framework to enhance the agent's capabilities.