ChatPaper.aiChatPaper

Quando Modelos de Raciocínio Prejudicam a Simulação Comportamental: Um Descompasso entre Solucionador e Amostrador na Negociação Multiagente com LLMs

When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation

April 12, 2026
Autores: Sandro Andric
cs.AI

Resumo

Os modelos de linguagem de grande escala são cada vez mais utilizados como agentes em simulações sociais, econômicas e políticas. Uma suposição comum é que uma capacidade de raciocínio mais forte deve melhorar a fidelidade da simulação. Argumentamos que esta suposição pode falhar quando o objetivo não é resolver um problema estratégico, mas sim amostrar comportamentos plausíveis e limitadamente racionais. Nesses contextos, modelos com raciocínio aprimorado podem tornar-se melhores solucionadores de problemas e piores simuladores: podem otimizar excessivamente ações estrategicamente dominantes, colapsar comportamentos terminais orientados para o compromisso e, por vezes, exibir um padrão de diversidade sem fidelidade, no qual a variação local sobrevive sem fidelidade a nível de resultados. Estudamos este desajuste entre solucionador e amostrador em três ambientes de negociação multiagente adaptados de trabalhos de simulação anteriores: um cenário de limites comerciais com autoridade fragmentada e ambígua, um cenário de limites comerciais com oposição unificada e ambígua, e um caso novo de domínio sobre restrição de rede na gestão de emergências elétricas. Comparamos três condições de reflexão – sem reflexão, reflexão limitada e raciocínio nativo – em duas famílias principais de modelos e, em seguida, estendemos o mesmo protocolo para execuções diretas na OpenAI com GPT-4.1 e GPT-5.2. Em todos os três experimentos, a reflexão limitada produz trajetórias substancialmente mais diversificadas e orientadas para o compromisso do que a ausência de reflexão ou o raciocínio nativo. Na extensão direta com a OpenAI, o GPT-5.2 com raciocínio nativo termina em decisões de autoridade em 45 de 45 execuções nos três experimentos, enquanto o GPT-5.2 com reflexão limitada recupera resultados de compromisso em todos os ambientes. A contribuição não é uma afirmação de que o raciocínio é geralmente prejudicial. É um alerta metodológico: a capacidade do modelo e a fidelidade da simulação são objetivos distintos, e a simulação comportamental deve qualificar os modelos como amostradores, e não apenas como solucionadores.
English
Large language models are increasingly used as agents in social, economic, and policy simulations. A common assumption is that stronger reasoning should improve simulation fidelity. We argue that this assumption can fail when the objective is not to solve a strategic problem, but to sample plausible boundedly rational behavior. In such settings, reasoning-enhanced models can become better solvers and worse simulators: they can over-optimize for strategically dominant actions, collapse compromise-oriented terminal behavior, and sometimes exhibit a diversity-without-fidelity pattern in which local variation survives without outcome-level fidelity. We study this solver-sampler mismatch in three multi-agent negotiation environments adapted from earlier simulation work: an ambiguous fragmented-authority trading-limits scenario, an ambiguous unified-opposition trading-limits scenario, and a new-domain grid-curtailment case in emergency electricity management. We compare three reflection conditions, no reflection, bounded reflection, and native reasoning, across two primary model families and then extend the same protocol to direct OpenAI runs with GPT-4.1 and GPT-5.2. Across all three experiments, bounded reflection produces substantially more diverse and compromise-oriented trajectories than either no reflection or native reasoning. In the direct OpenAI extension, GPT-5.2 native ends in authority decisions in 45 of 45 runs across the three experiments, while GPT-5.2 bounded recovers compromise outcomes in every environment. The contribution is not a claim that reasoning is generally harmful. It is a methodological warning: model capability and simulation fidelity are different objectives, and behavioral simulation should qualify models as samplers, not only as solvers.
PDF22April 18, 2026