ChatPaper.aiChatPaper

Wanneer redeneermodellen gedragssimulatie schaden: een mismatch tussen oplosser en steekproefnemer in multi-agent LLM-onderhandelingen

When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation

April 12, 2026
Auteurs: Sandro Andric
cs.AI

Samenvatting

Grote taalmodellen worden steeds vaker ingezet als agenten in sociale, economische en beleidssimulaties. Een veelvoorkomende aanname is dat sterker redeneervermogen de simulatiegetrouwheid zou moeten verbeteren. Wij beargumenteren dat deze aanname kan falen wanneer het doel niet is om een strategisch probleem op te lossen, maar om plausibel begrensd rationeel gedrag te bemonsteren. In dergelijke settings kunnen modellen met verbeterd redeneervermogen betere probleemoplossers maar slechtere simulatoren worden: ze kunnen overoptimaliseren voor strategisch dominante acties, compromisgericht eindgedrag doen instorten, en soms een diversiteit-zonder-getrouwheid-patroon vertonen waarbij lokale variatie blijft bestaan zonder getrouwheid op uitkomstniveau. Wij bestuderen deze mismatch tussen probleemoplosser en bemonsteraar in drie multi-agent onderhandelingsomgevingen, aangepast uit eerder simulatiewerk: een scenario met ambiguë gefragmenteerde autoriteit voor handelslimieten, een scenario met ambiguë verenigde tegenstand voor handelslimieten, en een nieuw-domein geval van netbeperking in noodstroombeheer. Wij vergelijken drie reflectiecondities – geen reflectie, begrensde reflectie en inherent redeneren – over twee primaire modelfamilies heen en breiden hetzelfde protocol vervolgens uit naar directe OpenAI runs met GPT-4.1 en GPT-5.2. In alle drie de experimenten produceert begrensde reflectie aanzienlijk diversere en meer op compromis gerichte trajecten dan zowel geen reflectie als inherent redeneren. In de directe OpenAI-extensie eindigt GPT-5.2 inherent in 45 van de 45 runs over de drie experimenten in autoritaire beslissingen, terwijl GPT-5.2 begrensd in elke omgeving compromisuitkomsten herstelt. De bijdrage is niet de bewering dat redeneren over het algemeen schadelijk is. Het is een methodologische waarschuwing: modelcapaciteit en simulatiegetrouwheid zijn verschillende doelstellingen, en gedragssimulatie zou modellen moeten kwalificeren als bemonsteraars, niet alleen als probleemoplossers.
English
Large language models are increasingly used as agents in social, economic, and policy simulations. A common assumption is that stronger reasoning should improve simulation fidelity. We argue that this assumption can fail when the objective is not to solve a strategic problem, but to sample plausible boundedly rational behavior. In such settings, reasoning-enhanced models can become better solvers and worse simulators: they can over-optimize for strategically dominant actions, collapse compromise-oriented terminal behavior, and sometimes exhibit a diversity-without-fidelity pattern in which local variation survives without outcome-level fidelity. We study this solver-sampler mismatch in three multi-agent negotiation environments adapted from earlier simulation work: an ambiguous fragmented-authority trading-limits scenario, an ambiguous unified-opposition trading-limits scenario, and a new-domain grid-curtailment case in emergency electricity management. We compare three reflection conditions, no reflection, bounded reflection, and native reasoning, across two primary model families and then extend the same protocol to direct OpenAI runs with GPT-4.1 and GPT-5.2. Across all three experiments, bounded reflection produces substantially more diverse and compromise-oriented trajectories than either no reflection or native reasoning. In the direct OpenAI extension, GPT-5.2 native ends in authority decisions in 45 of 45 runs across the three experiments, while GPT-5.2 bounded recovers compromise outcomes in every environment. The contribution is not a claim that reasoning is generally harmful. It is a methodological warning: model capability and simulation fidelity are different objectives, and behavioral simulation should qualify models as samplers, not only as solvers.
PDF22April 18, 2026