MDAgent2: Großes Sprachmodell für Code-Generierung und Wissens-Fragen & Antworten in der Molekulardynamik
MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics
January 5, 2026
papers.authors: Zhuofan Shi, Hubao A, Yufei Shao, Mengyan Dai, Yadong Yu, Pan Xiang, Dongliang Huang, Hongxu An, Chunxiao Xin, Haiyang Shen, Zhenyu Wang, Yunshan Na, Gang Huang, Xiang Jing
cs.AI
papers.abstract
Molekulardynamik (MD)-Simulationen sind entscheidend für das Verständnis atomarer Verhaltensweisen in der Materialwissenschaft, doch das Schreiben von LAMMPS-Skripten bleibt eine hochspezialisierte und zeitaufwändige Aufgabe. Obwohl große Sprachmodelle (LLMs) vielversprechende Fähigkeiten in der Codegenerierung und domänenspezifischen Fragebeantwortung zeigen, ist ihre Leistung in MD-Szenarien durch knappe Domänendaten, hohe Bereitstellungskosten modernster LLMs und geringe Code-Ausführbarkeit eingeschränkt. Aufbauend auf unserem früheren MDAgent präsentieren wir MDAgent2, das erste End-to-End-Framework, das sowohl Wissensfragebeantwortung als auch Codegenerierung im MD-Bereich durchführen kann. Wir entwickeln eine domänenspezifische Datenkonstruktions-Pipeline, die drei hochwertige Datensätze für MD-Wissen, Fragebeantwortung und Codegenerierung bereitstellt. Basierend auf diesen Datensätzen wenden wir eine dreistufige Nachtrainingsstrategie an – kontinuierliches Vortraining (CPT), überwachtes Feintuning (SFT) und bestärkendes Lernen (RL) – um zwei domänenangepasste Modelle, MD-Instruct und MD-Code, zu trainieren. Darüber hinaus führen wir MD-GRPO ein, eine RL-Methode mit geschlossenem Regelkreis, die Simulationsergebnisse als Belohnungssignale nutzt und Trajektorien mit geringer Belohnung zur kontinuierlichen Verbesserung recycelt. Wir entwickeln weiterhin MDAgent2-RUNTIME, ein einsetzbares Multi-Agenten-System, das Codegenerierung, -ausführung, -bewertung und Selbstkorrektur integriert. Zusammen mit dem in dieser Arbeit vorgeschlagenen MD-EvalBench, dem ersten Benchmark für LAMMPS-Codegenerierung und Fragebeantwortung, übertreffen unsere Modelle und Systeme die Leistung mehrerer starker Baseline-Methoden. Diese Arbeit demonstriert systematisch die Anpassungsfähigkeit und Generalisierungsleistung großer Sprachmodelle in industriellen Simulationsaufgaben und legt eine methodische Grundlage für automatische Codegenerierung in KI für die Wissenschaft und industrielle Simulationen. URL: https://github.com/FredericVAN/PKU_MDAgent2
English
Molecular dynamics (MD) simulations are essential for understanding atomic-scale behaviors in materials science, yet writing LAMMPS scripts remains highly specialized and time-consuming tasks. Although LLMs show promise in code generation and domain-specific question answering, their performance in MD scenarios is limited by scarce domain data, the high deployment cost of state-of-the-art LLMs, and low code executability. Building upon our prior MDAgent, we present MDAgent2, the first end-to-end framework capable of performing both knowledge Q&A and code generation within the MD domain. We construct a domain-specific data-construction pipeline that yields three high-quality datasets spanning MD knowledge, question answering, and code generation. Based on these datasets, we adopt a three stage post-training strategy--continued pre-training (CPT), supervised fine-tuning (SFT), and reinforcement learning (RL)--to train two domain-adapted models, MD-Instruct and MD-Code. Furthermore, we introduce MD-GRPO, a closed-loop RL method that leverages simulation outcomes as reward signals and recycles low-reward trajectories for continual refinement. We further build MDAgent2-RUNTIME, a deployable multi-agent system that integrates code generation, execution, evaluation, and self-correction. Together with MD-EvalBench proposed in this work, the first benchmark for LAMMPS code generation and question answering, our models and system achieve performance surpassing several strong baselines.This work systematically demonstrates the adaptability and generalization capability of large language models in industrial simulation tasks, laying a methodological foundation for automatic code generation in AI for Science and industrial-scale simulations. URL: https://github.com/FredericVAN/PKU_MDAgent2