PhysicsAgentABM: 物理学に基づく生成的エージェントベースモデリング
PhysicsAgentABM: Physics-Guided Generative Agent-Based Modeling
February 5, 2026
著者: Kavana Venkatesh, Yinhan He, Jundong Li, Jiaming Cui
cs.AI
要旨
大規模言語モデル(LLM)ベースのマルチエージェントシステムは表現力豊かなエージェント推論を可能にするが、スケーリングにコストがかかり、時間ステップ整合型の状態遷移シミュレーションに対して較正が不十分である。一方、古典的なエージェントベースモデル(ABM)は解釈性に優れるが、詳細な個体レベルの信号や非定常的な行動の統合が困難である。本研究では、推論を行動的に一貫したエージェントクラスタに移行するPhysicsAgentABMを提案する。状態特化型の記号的エージェントが力学的遷移事前分布を符号化し、マルチモーダルニューラル遷移モデルが時間的・相互作用的ダイナミクスを捕捉し、不確実性考慮型認識的融合により較正されたクラスタレベルの遷移分布を生成する。個々のエージェントは局所的制約下で確率的に遷移を実現し、集団推論と個体レベルの変動性を分離する。さらに、クロスコンテキスト的な行動応答と新規の対照損失に基づくLLMエージェント駆動クラスタリング手法ANCHORを導入し、LLM呼び出しを最大6~8倍削減する。公衆衛生、金融、社会科学における実験により、力学的モデル、ニューラルモデル、LLMベースラインを一貫して上回るイベント時間精度と較正性能を実証した。不確実性考慮型神経記号的融合による集団レベルの推論を中核に生成型ABMを再構築することで、PhysicsAgentABMはLLMを用いたスケーラブルで較正されたシミュレーションの新たなパラダイムを確立する。
English
Large language model (LLM)-based multi-agent systems enable expressive agent reasoning but are expensive to scale and poorly calibrated for timestep-aligned state-transition simulation, while classical agent-based models (ABMs) offer interpretability but struggle to integrate rich individual-level signals and non-stationary behaviors. We propose PhysicsAgentABM, which shifts inference to behaviorally coherent agent clusters: state-specialized symbolic agents encode mechanistic transition priors, a multimodal neural transition model captures temporal and interaction dynamics, and uncertainty-aware epistemic fusion yields calibrated cluster-level transition distributions. Individual agents then stochastically realize transitions under local constraints, decoupling population inference from entity-level variability. We further introduce ANCHOR, an LLM agent-driven clustering strategy based on cross-contextual behavioral responses and a novel contrastive loss, reducing LLM calls by up to 6-8 times. Experiments across public health, finance, and social sciences show consistent gains in event-time accuracy and calibration over mechanistic, neural, and LLM baselines. By re-architecting generative ABM around population-level inference with uncertainty-aware neuro-symbolic fusion, PhysicsAgentABM establishes a new paradigm for scalable and calibrated simulation with LLMs.