ChatPaper.aiChatPaper

SR-Científico: Descubrimiento de Ecuaciones Científicas con IA Agéntica

SR-Scientist: Scientific Equation Discovery With Agentic AI

October 13, 2025
Autores: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI

Resumen

Recientemente, los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) se han aplicado al descubrimiento de ecuaciones científicas, aprovechando su conocimiento científico integrado para la generación de hipótesis. Sin embargo, los métodos actuales suelen limitar a los LLMs al papel de proponentes de ecuaciones dentro de algoritmos de búsqueda como la programación genética. En este artículo, presentamos SR-Scientist, un marco que eleva al LLM de un simple proponente de ecuaciones a un científico de IA autónomo que escribe código para analizar datos, implementa la ecuación como código, la somete a evaluación y optimiza la ecuación basándose en la retroalimentación experimental. Específicamente, integramos el intérprete de código en un conjunto de herramientas para el análisis de datos y la evaluación de ecuaciones. Se instruye al agente para optimizar la ecuación utilizando estas herramientas a largo plazo con un mínimo de pipelines definidos por humanos. Los resultados empíricos muestran que SR-Scientist supera a los métodos de referencia por un margen absoluto del 6% al 35% en conjuntos de datos que abarcan cuatro disciplinas científicas. Además, demostramos la robustez de nuestro método frente al ruido, la generalización de las ecuaciones descubiertas a datos fuera del dominio y su precisión simbólica. Asimismo, desarrollamos un marco de aprendizaje por refuerzo de extremo a extremo para mejorar las capacidades del agente.
English
Recently, Large Language Models (LLMs) have been applied to scientific equation discovery, leveraging their embedded scientific knowledge for hypothesis generation. However, current methods typically confine LLMs to the role of an equation proposer within search algorithms like genetic programming. In this paper, we present SR-Scientist, a framework that elevates the LLM from a simple equation proposer to an autonomous AI scientist that writes code to analyze data, implements the equation as code, submits it for evaluation, and optimizes the equation based on experimental feedback. Specifically, we wrap the code interpreter into a set of tools for data analysis and equation evaluation. The agent is instructed to optimize the equation by utilizing these tools over a long horizon with minimal human-defined pipelines. Empirical results show that SR-Scientist outperforms baseline methods by an absolute margin of 6% to 35% on datasets covering four science disciplines. Additionally, we demonstrate our method's robustness to noise, the generalization of the discovered equations to out-of-domain data, and their symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning framework to enhance the agent's capabilities.
PDF32October 15, 2025