ChatPaper.aiChatPaper

MDAgent2: Modelo de Gran Lenguaje para Generación de Código y Preguntas y Respuestas de Conocimiento en Dinámica Molecular

MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics

January 5, 2026
Autores: Zhuofan Shi, Hubao A, Yufei Shao, Mengyan Dai, Yadong Yu, Pan Xiang, Dongliang Huang, Hongxu An, Chunxiao Xin, Haiyang Shen, Zhenyu Wang, Yunshan Na, Gang Huang, Xiang Jing
cs.AI

Resumen

Las simulaciones de dinámica molecular (DM) son esenciales para comprender los comportamientos a escala atómica en la ciencia de materiales, sin embargo, la escritura de scripts para LAMMPS sigue siendo una tarea altamente especializada y que consume mucho tiempo. Aunque los LLM muestran potencial en la generación de código y la respuesta a preguntas específicas de un dominio, su rendimiento en escenarios de DM se ve limitado por la escasez de datos del dominio, el alto coste de despliegue de los LLM más avanzados y la baja capacidad de ejecución del código generado. Basándonos en nuestro MDAgent anterior, presentamos MDAgent2, el primer marco de trabajo integral capaz de realizar tanto preguntas y respuestas de conocimiento como generación de código dentro del dominio de la DM. Construimos un pipeline de construcción de datos específico del dominio que produce tres conjuntos de datos de alta calidad que abarcan conocimiento de DM, preguntas y respuestas, y generación de código. Basándonos en estos conjuntos de datos, adoptamos una estrategia de post-entrenamiento en tres etapas—pre-entrenamiento continuado (CPT), ajuste fino supervisado (SFT) y aprendizaje por refuerzo (RL)—para entrenar dos modelos adaptados al dominio: MD-Instruct y MD-Code. Además, presentamos MD-GRPO, un método de RL de bucle cerrado que aprovecha los resultados de la simulación como señales de recompensa y recicla las trayectorias de baja recompensa para un refinamiento continuo. Además, construimos MDAgent2-RUNTIME, un sistema multiagente desplegable que integra generación, ejecución, evaluación y auto-corrección de código. Junto con MD-EvalBench, propuesto en este trabajo y que es el primer benchmark para generación de código LAMMPS y preguntas y respuestas, nuestros modelos y sistema logran un rendimiento que supera a varias líneas base sólidas. Este trabajo demuestra sistemáticamente la adaptabilidad y capacidad de generalización de los modelos de lenguaje grande en tareas de simulación industrial, sentando una base metodológica para la generación automática de código en IA para la Ciencia y simulaciones a escala industrial. URL: https://github.com/FredericVAN/PKU_MDAgent2
English
Molecular dynamics (MD) simulations are essential for understanding atomic-scale behaviors in materials science, yet writing LAMMPS scripts remains highly specialized and time-consuming tasks. Although LLMs show promise in code generation and domain-specific question answering, their performance in MD scenarios is limited by scarce domain data, the high deployment cost of state-of-the-art LLMs, and low code executability. Building upon our prior MDAgent, we present MDAgent2, the first end-to-end framework capable of performing both knowledge Q&A and code generation within the MD domain. We construct a domain-specific data-construction pipeline that yields three high-quality datasets spanning MD knowledge, question answering, and code generation. Based on these datasets, we adopt a three stage post-training strategy--continued pre-training (CPT), supervised fine-tuning (SFT), and reinforcement learning (RL)--to train two domain-adapted models, MD-Instruct and MD-Code. Furthermore, we introduce MD-GRPO, a closed-loop RL method that leverages simulation outcomes as reward signals and recycles low-reward trajectories for continual refinement. We further build MDAgent2-RUNTIME, a deployable multi-agent system that integrates code generation, execution, evaluation, and self-correction. Together with MD-EvalBench proposed in this work, the first benchmark for LAMMPS code generation and question answering, our models and system achieve performance surpassing several strong baselines.This work systematically demonstrates the adaptability and generalization capability of large language models in industrial simulation tasks, laying a methodological foundation for automatic code generation in AI for Science and industrial-scale simulations. URL: https://github.com/FredericVAN/PKU_MDAgent2
PDF61January 9, 2026