SR-Wetenschapper: Wetenschappelijke Vergelijkingsontdekking met Agent-gebaseerde AI
SR-Scientist: Scientific Equation Discovery With Agentic AI
October 13, 2025
Auteurs: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI
Samenvatting
Onlangs zijn Large Language Models (LLMs) toegepast op het ontdekken van wetenschappelijke vergelijkingen, waarbij gebruik wordt gemaakt van hun ingebedde wetenschappelijke kennis voor hypothesegeneratie. Huidige methoden beperken LLMs echter meestal tot de rol van een vergelijkingsvoorsteller binnen zoekalgoritmen zoals genetisch programmeren. In dit artikel presenteren we SR-Scientist, een framework dat de LLM verheft van een eenvoudige vergelijkingsvoorsteller naar een autonome AI-wetenschapper die code schrijft om data te analyseren, de vergelijking als code implementeert, deze indient voor evaluatie en de vergelijking optimaliseert op basis van experimentele feedback. Specifiek integreren we de code-interpreter in een set tools voor data-analyse en vergelijkings evaluatie. De agent wordt geïnstrueerd om de vergelijking te optimaliseren door deze tools over een lange horizon te gebruiken met minimale door mensen gedefinieerde pipelines. Empirische resultaten laten zien dat SR-Scientist baseline-methoden overtreft met een absoluut verschil van 6% tot 35% op datasets die vier wetenschappelijke disciplines beslaan. Daarnaast tonen we de robuustheid van onze methode tegen ruis, de generalisatie van de ontdekte vergelijkingen naar out-of-domain data, en hun symbolische nauwkeurigheid aan. Verder ontwikkelen we een end-to-end reinforcement learning framework om de capaciteiten van de agent te verbeteren.
English
Recently, Large Language Models (LLMs) have been applied to scientific
equation discovery, leveraging their embedded scientific knowledge for
hypothesis generation. However, current methods typically confine LLMs to the
role of an equation proposer within search algorithms like genetic programming.
In this paper, we present SR-Scientist, a framework that elevates the LLM from
a simple equation proposer to an autonomous AI scientist that writes code to
analyze data, implements the equation as code, submits it for evaluation, and
optimizes the equation based on experimental feedback. Specifically, we wrap
the code interpreter into a set of tools for data analysis and equation
evaluation. The agent is instructed to optimize the equation by utilizing these
tools over a long horizon with minimal human-defined pipelines. Empirical
results show that SR-Scientist outperforms baseline methods by an absolute
margin of 6% to 35% on datasets covering four science disciplines.
Additionally, we demonstrate our method's robustness to noise, the
generalization of the discovered equations to out-of-domain data, and their
symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning
framework to enhance the agent's capabilities.