SR-Scientist: Scoperta di Equazioni Scientifiche con Intelligenza Artificiale Agente
SR-Scientist: Scientific Equation Discovery With Agentic AI
October 13, 2025
Autori: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI
Abstract
Recentemente, i Large Language Models (LLM) sono stati applicati alla scoperta di equazioni scientifiche, sfruttando la loro conoscenza scientifica incorporata per la generazione di ipotesi. Tuttavia, i metodi attuali limitano tipicamente i LLM al ruolo di propositori di equazioni all'interno di algoritmi di ricerca come la programmazione genetica. In questo articolo, presentiamo SR-Scientist, un framework che eleva il LLM da un semplice propositore di equazioni a uno scienziato AI autonomo che scrive codice per analizzare i dati, implementa l'equazione come codice, la sottopone a valutazione e ottimizza l'equazione in base al feedback sperimentale. Nello specifico, integriamo l'interprete di codice in un insieme di strumenti per l'analisi dei dati e la valutazione delle equazioni. L'agente è istruito per ottimizzare l'equazione utilizzando questi strumenti su un orizzonte temporale lungo con pipeline definite dall'uomo ridotte al minimo. I risultati empirici mostrano che SR-Scientist supera i metodi di base con un margine assoluto dal 6% al 35% su dataset che coprono quattro discipline scientifiche. Inoltre, dimostriamo la robustezza del nostro metodo al rumore, la generalizzazione delle equazioni scoperte a dati fuori dominio e la loro accuratezza simbolica. Inoltre, sviluppiamo un framework di reinforcement learning end-to-end per potenziare le capacità dell'agente.
English
Recently, Large Language Models (LLMs) have been applied to scientific
equation discovery, leveraging their embedded scientific knowledge for
hypothesis generation. However, current methods typically confine LLMs to the
role of an equation proposer within search algorithms like genetic programming.
In this paper, we present SR-Scientist, a framework that elevates the LLM from
a simple equation proposer to an autonomous AI scientist that writes code to
analyze data, implements the equation as code, submits it for evaluation, and
optimizes the equation based on experimental feedback. Specifically, we wrap
the code interpreter into a set of tools for data analysis and equation
evaluation. The agent is instructed to optimize the equation by utilizing these
tools over a long horizon with minimal human-defined pipelines. Empirical
results show that SR-Scientist outperforms baseline methods by an absolute
margin of 6% to 35% on datasets covering four science disciplines.
Additionally, we demonstrate our method's robustness to noise, the
generalization of the discovered equations to out-of-domain data, and their
symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning
framework to enhance the agent's capabilities.