ChatPaper.aiChatPaper

SR-Wetenschapper: Wetenschappelijke Vergelijkingsontdekking met Agent-gebaseerde AI

SR-Scientist: Scientific Equation Discovery With Agentic AI

October 13, 2025
Auteurs: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI

Samenvatting

Onlangs zijn Large Language Models (LLMs) toegepast op het ontdekken van wetenschappelijke vergelijkingen, waarbij gebruik wordt gemaakt van hun ingebedde wetenschappelijke kennis voor hypothesegeneratie. Huidige methoden beperken LLMs echter meestal tot de rol van een vergelijkingsvoorsteller binnen zoekalgoritmen zoals genetisch programmeren. In dit artikel presenteren we SR-Scientist, een framework dat de LLM verheft van een eenvoudige vergelijkingsvoorsteller naar een autonome AI-wetenschapper die code schrijft om data te analyseren, de vergelijking als code implementeert, deze indient voor evaluatie en de vergelijking optimaliseert op basis van experimentele feedback. Specifiek integreren we de code-interpreter in een set tools voor data-analyse en vergelijkings evaluatie. De agent wordt geïnstrueerd om de vergelijking te optimaliseren door deze tools over een lange horizon te gebruiken met minimale door mensen gedefinieerde pipelines. Empirische resultaten laten zien dat SR-Scientist baseline-methoden overtreft met een absoluut verschil van 6% tot 35% op datasets die vier wetenschappelijke disciplines beslaan. Daarnaast tonen we de robuustheid van onze methode tegen ruis, de generalisatie van de ontdekte vergelijkingen naar out-of-domain data, en hun symbolische nauwkeurigheid aan. Verder ontwikkelen we een end-to-end reinforcement learning framework om de capaciteiten van de agent te verbeteren.
English
Recently, Large Language Models (LLMs) have been applied to scientific equation discovery, leveraging their embedded scientific knowledge for hypothesis generation. However, current methods typically confine LLMs to the role of an equation proposer within search algorithms like genetic programming. In this paper, we present SR-Scientist, a framework that elevates the LLM from a simple equation proposer to an autonomous AI scientist that writes code to analyze data, implements the equation as code, submits it for evaluation, and optimizes the equation based on experimental feedback. Specifically, we wrap the code interpreter into a set of tools for data analysis and equation evaluation. The agent is instructed to optimize the equation by utilizing these tools over a long horizon with minimal human-defined pipelines. Empirical results show that SR-Scientist outperforms baseline methods by an absolute margin of 6% to 35% on datasets covering four science disciplines. Additionally, we demonstrate our method's robustness to noise, the generalization of the discovered equations to out-of-domain data, and their symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning framework to enhance the agent's capabilities.
PDF32October 15, 2025