ChatPaper.aiChatPaper

PhysicsAgentABM: Physikgeleitete generative agentenbasierte Modellierung

PhysicsAgentABM: Physics-Guided Generative Agent-Based Modeling

February 5, 2026
papers.authors: Kavana Venkatesh, Yinhan He, Jundong Li, Jiaming Cui
cs.AI

papers.abstract

Multi-Agenten-Systeme auf Basis großer Sprachmodelle (LLM) ermöglichen expressive Agenten-Argumentation, sind jedoch teuer zu skalieren und schlecht kalibriert für zeitschrittgenaue Zustandsübergangssimulationen. Klassische agentenbasierte Modelle (ABM) bieten hingegen Interpretierbarkeit, haben aber Schwierigkeiten, umfangreiche individuelle Signale und nicht-stationäre Verhaltensweisen zu integrieren. Wir schlagen PhysicsAgentABM vor, das die Inferenz auf behavioral kohärente Agenten-Cluster verlagert: zustandsspezialisierte symbolische Agenten enkodieren mechanistische Übergangsprioritäten, ein multimodales neuronales Übergangsmodell erfasst temporäre und Interaktionsdynamiken, und unsicherheitsaware epistemische Fusion liefert kalibrierte Cluster-Level-Übergangsverteilungen. Individuelle Agenten realisieren dann stochastisch Übergänge unter lokalen Constraints, wodurch Populationsinferenz und Entitätsvariabilität entkoppelt werden. Wir führen zudem ANCHOR ein, eine LLM-Agenten-gesteuerte Clustering-Strategie basierend auf kontextübergreifenden Verhaltensantworten und einem neuartigen kontrastiven Loss, die LLM-Aufrufe um bis zum 6-8-fachen reduziert. Experimente in den Bereichen Public Health, Finanzen und Sozialwissenschaften zeigen konsistent Verbesserungen in der Ereigniszeitgenauigkeit und Kalibrierung gegenüber mechanistischen, neuronalen und LLM-Baselines. Durch die Neuausrichtung generativer ABM um Populationsinferenz mit unsicherheitsaware neuro-symbolischer Fusion etabliert PhysicsAgentABM ein neues Paradigma für skalierbare und kalibrierte Simulation mit LLMs.
English
Large language model (LLM)-based multi-agent systems enable expressive agent reasoning but are expensive to scale and poorly calibrated for timestep-aligned state-transition simulation, while classical agent-based models (ABMs) offer interpretability but struggle to integrate rich individual-level signals and non-stationary behaviors. We propose PhysicsAgentABM, which shifts inference to behaviorally coherent agent clusters: state-specialized symbolic agents encode mechanistic transition priors, a multimodal neural transition model captures temporal and interaction dynamics, and uncertainty-aware epistemic fusion yields calibrated cluster-level transition distributions. Individual agents then stochastically realize transitions under local constraints, decoupling population inference from entity-level variability. We further introduce ANCHOR, an LLM agent-driven clustering strategy based on cross-contextual behavioral responses and a novel contrastive loss, reducing LLM calls by up to 6-8 times. Experiments across public health, finance, and social sciences show consistent gains in event-time accuracy and calibration over mechanistic, neural, and LLM baselines. By re-architecting generative ABM around population-level inference with uncertainty-aware neuro-symbolic fusion, PhysicsAgentABM establishes a new paradigm for scalable and calibrated simulation with LLMs.
PDF03February 7, 2026