ChatPaper.aiChatPaper

PhysicsAgentABM : Modélisation générative à base d'agents guidée par la physique

PhysicsAgentABM: Physics-Guided Generative Agent-Based Modeling

February 5, 2026
papers.authors: Kavana Venkatesh, Yinhan He, Jundong Li, Jiaming Cui
cs.AI

papers.abstract

Les systèmes multi-agents basés sur des grands modèles de langage (LLM) permettent un raisonnement agent expressif mais sont coûteux à mettre à l'échelle et mal calibrés pour la simulation d'états-transitions alignés sur le temps, tandis que les modèles à base d'agents (ABM) classiques offrent une interprétabilité mais peinent à intégrer des signaux individuels riches et des comportements non stationnaires. Nous proposons PhysicsAgentABM, qui déplace l'inférence vers des clusters d'agents comportementalement cohérents : des agents symboliques spécialisés par état encodent des a priori transitionnels mécanistes, un modèle de transition neuronal multimodal capture les dynamiques temporelles et interactionnelles, et une fusion épistémique consciente de l'incertitude produit des distributions transitionnelles calibrées au niveau du cluster. Les agents individuels réalisent ensuite stochastiquement des transitions sous contraintes locales, découplant l'inférence populationnelle de la variabilité au niveau entité. Nous introduisons également ANCHOR, une stratégie de clustering pilotée par un agent LLM basée sur des réponses comportementales cross-contextuelles et une nouvelle fonction de perte contrastive, réduisant les appels LLM jusqu'à 6-8 fois. Les expériences en santé publique, finance et sciences sociales montrent des gains constants en précision temporelle des événements et en calibration par rapport aux bases de référence mécanistes, neuronales et LLM. En repensant les ABM génératifs autour de l'inférence au niveau populationnel avec une fusion neuro-symbolique consciente de l'incertitude, PhysicsAgentABM établit un nouveau paradigme pour la simulation scalable et calibrée avec les LLM.
English
Large language model (LLM)-based multi-agent systems enable expressive agent reasoning but are expensive to scale and poorly calibrated for timestep-aligned state-transition simulation, while classical agent-based models (ABMs) offer interpretability but struggle to integrate rich individual-level signals and non-stationary behaviors. We propose PhysicsAgentABM, which shifts inference to behaviorally coherent agent clusters: state-specialized symbolic agents encode mechanistic transition priors, a multimodal neural transition model captures temporal and interaction dynamics, and uncertainty-aware epistemic fusion yields calibrated cluster-level transition distributions. Individual agents then stochastically realize transitions under local constraints, decoupling population inference from entity-level variability. We further introduce ANCHOR, an LLM agent-driven clustering strategy based on cross-contextual behavioral responses and a novel contrastive loss, reducing LLM calls by up to 6-8 times. Experiments across public health, finance, and social sciences show consistent gains in event-time accuracy and calibration over mechanistic, neural, and LLM baselines. By re-architecting generative ABM around population-level inference with uncertainty-aware neuro-symbolic fusion, PhysicsAgentABM establishes a new paradigm for scalable and calibrated simulation with LLMs.
PDF03February 7, 2026