ChatPaper.aiChatPaper

PhysicsAgentABM: Modelagem Generativa Baseada em Agentes com Orientação Física

PhysicsAgentABM: Physics-Guided Generative Agent-Based Modeling

February 5, 2026
Autores: Kavana Venkatesh, Yinhan He, Jundong Li, Jiaming Cui
cs.AI

Resumo

Sistemas multiagente baseados em grandes modelos de linguagem (LLMs) permitem raciocínio agente expressivo, mas são dispendiosos para escalar e mal calibrados para simulação de transição de estados alinhada no tempo, enquanto modelos baseados em agentes (ABMs) clássicos oferecem interpretabilidade, mas lutam para integrar sinais ricos a nível individual e comportamentos não estacionários. Propomos o PhysicsAgentABM, que desloca a inferência para clusters de agentes comportamentalmente coerentes: agentes simbólicos especializados por estado codificam *priors* de transição mecanicistas, um modelo neural de transição multimodal captura dinâmicas temporais e de interação, e uma fusão epistêmica consciente da incerteza produz distribuições de transição a nível de cluster calibradas. Agentes individuais realizam então transições estocasticamente sob restrições locais, desacoplando a inferência populacional da variabilidade a nível de entidade. Introduzimos ainda o ANCHOR, uma estratégia de agrupamento conduzida por agentes LLM baseada em respostas comportamentais cross-contextuais e uma nova função de perda contrastiva, reduzindo chamadas LLM em até 6-8 vezes. Experiências em saúde pública, finanças e ciências sociais mostram ganhos consistentes em precisão de tempo de evento e calibração sobre *baselines* mecanicistas, neurais e de LLM. Ao reestruturar ABMs generativos em torno de inferência a nível populacional com fusão neuro-simbólica consciente da incerteza, o PhysicsAgentABM estabelece um novo paradigma para simulação escalável e calibrada com LLMs.
English
Large language model (LLM)-based multi-agent systems enable expressive agent reasoning but are expensive to scale and poorly calibrated for timestep-aligned state-transition simulation, while classical agent-based models (ABMs) offer interpretability but struggle to integrate rich individual-level signals and non-stationary behaviors. We propose PhysicsAgentABM, which shifts inference to behaviorally coherent agent clusters: state-specialized symbolic agents encode mechanistic transition priors, a multimodal neural transition model captures temporal and interaction dynamics, and uncertainty-aware epistemic fusion yields calibrated cluster-level transition distributions. Individual agents then stochastically realize transitions under local constraints, decoupling population inference from entity-level variability. We further introduce ANCHOR, an LLM agent-driven clustering strategy based on cross-contextual behavioral responses and a novel contrastive loss, reducing LLM calls by up to 6-8 times. Experiments across public health, finance, and social sciences show consistent gains in event-time accuracy and calibration over mechanistic, neural, and LLM baselines. By re-architecting generative ABM around population-level inference with uncertainty-aware neuro-symbolic fusion, PhysicsAgentABM establishes a new paradigm for scalable and calibrated simulation with LLMs.
PDF03February 7, 2026