ChatPaper.aiChatPaper

MDAgent2: Modelo de Linguagem de Grande Porte para Geração de Código e Perguntas e Respostas de Conhecimento em Dinâmica Molecular

MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics

January 5, 2026
Autores: Zhuofan Shi, Hubao A, Yufei Shao, Mengyan Dai, Yadong Yu, Pan Xiang, Dongliang Huang, Hongxu An, Chunxiao Xin, Haiyang Shen, Zhenyu Wang, Yunshan Na, Gang Huang, Xiang Jing
cs.AI

Resumo

As simulações de dinâmica molecular (DM) são essenciais para a compreensão de comportamentos em escala atômica na ciência dos materiais, porém a escrita de scripts para LAMMPS permanece uma tarefa altamente especializada e demorada. Embora os LLMs mostrem potencial na geração de código e em respostas a perguntas específicas de domínio, o seu desempenho em cenários de DM é limitado pela escassez de dados do domínio, pelo alto custo de implantação dos LLMs de última geração e pela baixa capacidade de execução do código gerado. Com base no nosso MDAgent anterior, apresentamos o MDAgent2, a primeira estrutura de trabalho de ponta a ponta capaz de realizar tanto tarefas de Perguntas e Respostas (Q&A) de conhecimento quanto de geração de código no domínio da DM. Construímos um pipeline de construção de dados específico do domínio que produz três conjuntos de dados de alta qualidade abrangendo conhecimento de DM, perguntas e respostas e geração de código. Com base nestes conjuntos de dados, adotamos uma estratégia de pós-treinamento em três fases – pré-treinamento contínuo (CPT), ajuste fino supervisionado (SFT) e aprendizagem por reforço (RL) – para treinar dois modelos adaptados ao domínio, o MD-Instruct e o MD-Code. Além disso, introduzimos o MD-GRPO, um método de RL de ciclo fechado que utiliza os resultados da simulação como sinais de recompensa e recicla trajetórias de baixa recompensa para um refinamento contínuo. Desenvolvemos ainda o MDAgent2-RUNTIME, um sistema multiagente implantável que integra geração, execução, avaliação e autocorreção de código. Juntamente com o MD-EvalBench proposto neste trabalho, o primeiro benchmark para geração de código LAMMPS e perguntas e respostas, os nossos modelos e sistema alcançam um desempenho que supera várias linhas de base robustas. Este trabalho demonstra sistematicamente a adaptabilidade e a capacidade de generalização dos grandes modelos de linguagem em tarefas de simulação industrial, estabelecendo uma fundação metodológica para a geração automática de código em IA para a Ciência (AI for Science) e simulações em escala industrial. URL: https://github.com/FredericVAN/PKU_MDAgent2
English
Molecular dynamics (MD) simulations are essential for understanding atomic-scale behaviors in materials science, yet writing LAMMPS scripts remains highly specialized and time-consuming tasks. Although LLMs show promise in code generation and domain-specific question answering, their performance in MD scenarios is limited by scarce domain data, the high deployment cost of state-of-the-art LLMs, and low code executability. Building upon our prior MDAgent, we present MDAgent2, the first end-to-end framework capable of performing both knowledge Q&A and code generation within the MD domain. We construct a domain-specific data-construction pipeline that yields three high-quality datasets spanning MD knowledge, question answering, and code generation. Based on these datasets, we adopt a three stage post-training strategy--continued pre-training (CPT), supervised fine-tuning (SFT), and reinforcement learning (RL)--to train two domain-adapted models, MD-Instruct and MD-Code. Furthermore, we introduce MD-GRPO, a closed-loop RL method that leverages simulation outcomes as reward signals and recycles low-reward trajectories for continual refinement. We further build MDAgent2-RUNTIME, a deployable multi-agent system that integrates code generation, execution, evaluation, and self-correction. Together with MD-EvalBench proposed in this work, the first benchmark for LAMMPS code generation and question answering, our models and system achieve performance surpassing several strong baselines.This work systematically demonstrates the adaptability and generalization capability of large language models in industrial simulation tasks, laying a methodological foundation for automatic code generation in AI for Science and industrial-scale simulations. URL: https://github.com/FredericVAN/PKU_MDAgent2
PDF82February 7, 2026