SR-Учёный: Открытие научных уравнений с помощью агентного искусственного интеллекта
SR-Scientist: Scientific Equation Discovery With Agentic AI
October 13, 2025
Авторы: Shijie Xia, Yuhan Sun, Pengfei Liu
cs.AI
Аннотация
В последнее время крупные языковые модели (LLM) нашли применение в области открытия научных уравнений, используя заложенные в них научные знания для генерации гипотез. Однако современные методы обычно ограничивают роль LLM предложением уравнений в рамках поисковых алгоритмов, таких как генетическое программирование. В данной работе мы представляем SR-Scientist — фреймворк, который повышает статус LLM от простого генератора уравнений до автономного искусственного интеллекта, способного писать код для анализа данных, реализовывать уравнения в виде кода, отправлять их на оценку и оптимизировать уравнения на основе экспериментальных данных. В частности, мы интегрируем интерпретатор кода в набор инструментов для анализа данных и оценки уравнений. Агент получает инструкции по оптимизации уравнений, используя эти инструменты на протяжении длительного времени с минимальным участием заранее заданных человеком процессов. Эмпирические результаты показывают, что SR-Scientist превосходит базовые методы с абсолютным отрывом от 6% до 35% на наборах данных, охватывающих четыре научные дисциплины. Кроме того, мы демонстрируем устойчивость нашего метода к шуму, обобщаемость обнаруженных уравнений на данные вне исходной области и их символическую точность. Дополнительно мы разрабатываем сквозной фреймворк обучения с подкреплением для повышения возможностей агента.
English
Recently, Large Language Models (LLMs) have been applied to scientific
equation discovery, leveraging their embedded scientific knowledge for
hypothesis generation. However, current methods typically confine LLMs to the
role of an equation proposer within search algorithms like genetic programming.
In this paper, we present SR-Scientist, a framework that elevates the LLM from
a simple equation proposer to an autonomous AI scientist that writes code to
analyze data, implements the equation as code, submits it for evaluation, and
optimizes the equation based on experimental feedback. Specifically, we wrap
the code interpreter into a set of tools for data analysis and equation
evaluation. The agent is instructed to optimize the equation by utilizing these
tools over a long horizon with minimal human-defined pipelines. Empirical
results show that SR-Scientist outperforms baseline methods by an absolute
margin of 6% to 35% on datasets covering four science disciplines.
Additionally, we demonstrate our method's robustness to noise, the
generalization of the discovered equations to out-of-domain data, and their
symbolic accuracy. Furthermore, we develop an end-to-end reinforcement learning
framework to enhance the agent's capabilities.