SR-Científico: Descubrimiento de Ecuaciones Científicas con IA Agéntica
SR-Scientist: Scientific Equation Discovery With Agentic AI
October 13, 2025
Autores: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI
Resumen
Recientemente, los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) se han aplicado al descubrimiento de ecuaciones científicas, aprovechando su conocimiento científico integrado para la generación de hipótesis. Sin embargo, los métodos actuales suelen limitar a los LLMs al papel de proponentes de ecuaciones dentro de algoritmos de búsqueda como la programación genética. En este artículo, presentamos SR-Scientist, un marco que eleva al LLM de un simple proponente de ecuaciones a un científico de IA autónomo que escribe código para analizar datos, implementa la ecuación como código, la somete a evaluación y optimiza la ecuación basándose en la retroalimentación experimental. Específicamente, integramos el intérprete de código en un conjunto de herramientas para el análisis de datos y la evaluación de ecuaciones. Se instruye al agente para optimizar la ecuación utilizando estas herramientas a largo plazo con un mínimo de pipelines definidos por humanos. Los resultados empíricos muestran que SR-Scientist supera a los métodos de referencia por un margen absoluto del 6% al 35% en conjuntos de datos que abarcan cuatro disciplinas científicas. Además, demostramos la robustez de nuestro método frente al ruido, la generalización de las ecuaciones descubiertas a datos fuera del dominio y su precisión simbólica. Asimismo, desarrollamos un marco de aprendizaje por refuerzo de extremo a extremo para mejorar las capacidades del agente.
English
Recently, Large Language Models (LLMs) have been applied to scientific
equation discovery, leveraging their embedded scientific knowledge for
hypothesis generation. However, current methods typically confine LLMs to the
role of an equation proposer within search algorithms like genetic programming.
In this paper, we present SR-Scientist, a framework that elevates the LLM from
a simple equation proposer to an autonomous AI scientist that writes code to
analyze data, implements the equation as code, submits it for evaluation, and
optimizes the equation based on experimental feedback. Specifically, we wrap
the code interpreter into a set of tools for data analysis and equation
evaluation. The agent is instructed to optimize the equation by utilizing these
tools over a long horizon with minimal human-defined pipelines. Empirical
results show that SR-Scientist outperforms baseline methods by an absolute
margin of 6% to 35% on datasets covering four science disciplines.
Additionally, we demonstrate our method's robustness to noise, the
generalization of the discovered equations to out-of-domain data, and their
symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning
framework to enhance the agent's capabilities.