MDAgent2: Modello Linguistico di Grande Dimensioni per la Generazione di Codice e Domande-Risposte di Conoscenza in Dinamica Molecolare
MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics
January 5, 2026
Autori: Zhuofan Shi, Hubao A, Yufei Shao, Mengyan Dai, Yadong Yu, Pan Xiang, Dongliang Huang, Hongxu An, Chunxiao Xin, Haiyang Shen, Zhenyu Wang, Yunshan Na, Gang Huang, Xiang Jing
cs.AI
Abstract
Le simulazioni di dinamica molecolare (MD) sono fondamentali per comprendere i comportamenti a scala atomica nella scienza dei materiali, tuttavia la scrittura di script LAMMPS rimane un compito altamente specializzato e dispendioso in termini di tempo. Sebbene i modelli linguistici di grandi dimensioni (LLM) mostrino potenziale nella generazione di codice e nel rispondere a domande di dominio specifico, le loro prestazioni negli scenari di MD sono limitate dalla scarsità di dati di dominio, dall'elevato costo di implementazione degli LLM più avanzati e dalla bassa eseguibilità del codice. Basandoci sul nostro precedente MDAgent, presentiamo MDAgent2, il primo framework end-to-end in grado di eseguire sia domande e risposte di conoscenza che generazione di codice all'interno del dominio MD. Abbiamo costruito una pipeline di costruzione dati specifica per il dominio che produce tre dataset di alta qualità che abbracciano la conoscenza MD, il question answering e la generazione di codice. Sulla base di questi dataset, adottiamo una strategia di post-addestramento in tre fasi - pre-addestramento continuato (CPT), fine-tuning supervisionato (SFT) e apprendimento per rinforzo (RL) - per addestrare due modelli adattati al dominio, MD-Instruct e MD-Code. Inoltre, introduciamo MD-GRPO, un metodo RL a ciclo chiuso che utilizza i risultati della simulazione come segnali di ricompensa e ricicla le traiettorie a basso reward per un affinamento continuo. Abbiamo inoltre costruito MDAgent2-RUNTIME, un sistema multi-agente distribuibile che integra generazione, esecuzione, valutazione e autocorrezione del codice. Insieme a MD-EvalBench, il primo benchmark per la generazione di codice LAMMPS e il question answering proposto in questo lavoro, i nostri modelli e sistema raggiungono prestazioni che superano diverse baseline solide. Questo lavoro dimostra sistematicamente l'adattabilità e la capacità di generalizzazione dei grandi modelli linguistici nei compiti di simulazione industriale, gettando una base metodologica per la generazione automatica di codice nell'ambito dell'IA per la Scienza e delle simulazioni su scala industriale. URL: https://github.com/FredericVAN/PKU_MDAgent2
English
Molecular dynamics (MD) simulations are essential for understanding atomic-scale behaviors in materials science, yet writing LAMMPS scripts remains highly specialized and time-consuming tasks. Although LLMs show promise in code generation and domain-specific question answering, their performance in MD scenarios is limited by scarce domain data, the high deployment cost of state-of-the-art LLMs, and low code executability. Building upon our prior MDAgent, we present MDAgent2, the first end-to-end framework capable of performing both knowledge Q&A and code generation within the MD domain. We construct a domain-specific data-construction pipeline that yields three high-quality datasets spanning MD knowledge, question answering, and code generation. Based on these datasets, we adopt a three stage post-training strategy--continued pre-training (CPT), supervised fine-tuning (SFT), and reinforcement learning (RL)--to train two domain-adapted models, MD-Instruct and MD-Code. Furthermore, we introduce MD-GRPO, a closed-loop RL method that leverages simulation outcomes as reward signals and recycles low-reward trajectories for continual refinement. We further build MDAgent2-RUNTIME, a deployable multi-agent system that integrates code generation, execution, evaluation, and self-correction. Together with MD-EvalBench proposed in this work, the first benchmark for LAMMPS code generation and question answering, our models and system achieve performance surpassing several strong baselines.This work systematically demonstrates the adaptability and generalization capability of large language models in industrial simulation tasks, laying a methodological foundation for automatic code generation in AI for Science and industrial-scale simulations. URL: https://github.com/FredericVAN/PKU_MDAgent2