SR-Cientista: Descoberta de Equações Científicas com IA Agente
SR-Scientist: Scientific Equation Discovery With Agentic AI
October 13, 2025
Autores: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI
Resumo
Recentemente, os Modelos de Linguagem de Grande Escala (LLMs) têm sido aplicados à descoberta de equações científicas, aproveitando o conhecimento científico embutido para a geração de hipóteses. No entanto, os métodos atuais geralmente limitam os LLMs ao papel de propositores de equações dentro de algoritmos de busca, como a programação genética. Neste artigo, apresentamos o SR-Scientist, um framework que eleva o LLM de um simples propositor de equações para um cientista de IA autônomo que escreve código para analisar dados, implementa a equação como código, a submete para avaliação e otimiza a equação com base no feedback experimental. Especificamente, integramos o interpretador de código em um conjunto de ferramentas para análise de dados e avaliação de equações. O agente é instruído a otimizar a equação utilizando essas ferramentas ao longo de um horizonte prolongado, com pipelines mínimos definidos por humanos. Resultados empíricos mostram que o SR-Scientist supera os métodos de linha de base por uma margem absoluta de 6% a 35% em conjuntos de dados que abrangem quatro disciplinas científicas. Além disso, demonstramos a robustez do nosso método ao ruído, a generalização das equações descobertas para dados fora do domínio e sua precisão simbólica. Adicionalmente, desenvolvemos um framework de aprendizado por reforço de ponta a ponta para aprimorar as capacidades do agente.
English
Recently, Large Language Models (LLMs) have been applied to scientific
equation discovery, leveraging their embedded scientific knowledge for
hypothesis generation. However, current methods typically confine LLMs to the
role of an equation proposer within search algorithms like genetic programming.
In this paper, we present SR-Scientist, a framework that elevates the LLM from
a simple equation proposer to an autonomous AI scientist that writes code to
analyze data, implements the equation as code, submits it for evaluation, and
optimizes the equation based on experimental feedback. Specifically, we wrap
the code interpreter into a set of tools for data analysis and equation
evaluation. The agent is instructed to optimize the equation by utilizing these
tools over a long horizon with minimal human-defined pipelines. Empirical
results show that SR-Scientist outperforms baseline methods by an absolute
margin of 6% to 35% on datasets covering four science disciplines.
Additionally, we demonstrate our method's robustness to noise, the
generalization of the discovered equations to out-of-domain data, and their
symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning
framework to enhance the agent's capabilities.