ChatPaper.aiChatPaper

Wenn Reasoning-Modelle die Verhaltenssimulation beeinträchtigen: Eine Solver-Sampler-Diskrepanz in Multi-Agenten-LLM-Verhandlungen

When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation

April 12, 2026
Autoren: Sandro Andric
cs.AI

Zusammenfassung

Große Sprachmodelle werden zunehmend als Agenten in sozialen, wirtschaftlichen und politischen Simulationen eingesetzt. Eine verbreitete Annahme ist, dass stärkeres Reasoning die Simulationsgüte verbessern sollte. Wir argumentieren, dass diese Annahme fehlschlagen kann, wenn das Ziel nicht darin besteht, ein strategisches Problem zu lösen, sondern plausibles begrenzt rationales Verhalten zu sampeln. In solchen Settings können reasoning-verstärkte Modelle zu besseren Lösern, aber schlechteren Simulatoren werden: Sie können strategisch dominante Aktionen überoptimieren, kompromissorientiertes Endverhalten kollabieren lassen und manchmal ein "Vielfalt-ohne-Treue"-Muster zeigen, bei dem lokale Variation überlebt, ohne dass es zu Ergebnis-Treue kommt. Wir untersuchen diese Lösungs-Sampling-Diskrepanz in drei Multi-Agenten-Verhandlungsumgebungen, die an frühere Simulationsarbeit angelehnt sind: ein Szenario mit fragmentierter Autorität und Handelsbeschränkungen, ein Szenario mit vereinter Opposition und Handelsbeschränkungen sowie einen neuen Fall aus dem Bereich der Netzeinspeisereduktion im Notfallstrommanagement. Wir vergleichen drei Reasoning-Bedingungen – kein Reasoning, begrenztes Reasoning und natives Reasoning – über zwei primäre Modellfamilien hinweg und erweitern das Protokoll dann auf direkte OpenAI-Läufe mit GPT-4.1 und GPT-5.2. In allen drei Experimenten erzeugt begrenztes Reasoning deutlich diversere und kompromissorientiertere Trajektorien als entweder kein Reasoning oder natives Reasoning. In der OpenAI-Erweiterung endet GPT-5.2 mit nativem Reasoning in 45 von 45 Läufen über alle drei Experimente in autoritären Entscheidungen, während GPT-5.2 mit begrenztem Reasoning in jeder Umgebung Kompromissergebnisse erzielt. Der Beitrag ist keine Aussage, dass Reasoning generell schädlich ist. Es ist eine methodische Warnung: Modellfähigkeit und Simulationsgüte sind unterschiedliche Ziele, und Verhaltenssimulation sollte Modelle als Sampler qualifizieren, nicht nur als Löser.
English
Large language models are increasingly used as agents in social, economic, and policy simulations. A common assumption is that stronger reasoning should improve simulation fidelity. We argue that this assumption can fail when the objective is not to solve a strategic problem, but to sample plausible boundedly rational behavior. In such settings, reasoning-enhanced models can become better solvers and worse simulators: they can over-optimize for strategically dominant actions, collapse compromise-oriented terminal behavior, and sometimes exhibit a diversity-without-fidelity pattern in which local variation survives without outcome-level fidelity. We study this solver-sampler mismatch in three multi-agent negotiation environments adapted from earlier simulation work: an ambiguous fragmented-authority trading-limits scenario, an ambiguous unified-opposition trading-limits scenario, and a new-domain grid-curtailment case in emergency electricity management. We compare three reflection conditions, no reflection, bounded reflection, and native reasoning, across two primary model families and then extend the same protocol to direct OpenAI runs with GPT-4.1 and GPT-5.2. Across all three experiments, bounded reflection produces substantially more diverse and compromise-oriented trajectories than either no reflection or native reasoning. In the direct OpenAI extension, GPT-5.2 native ends in authority decisions in 45 of 45 runs across the three experiments, while GPT-5.2 bounded recovers compromise outcomes in every environment. The contribution is not a claim that reasoning is generally harmful. It is a methodological warning: model capability and simulation fidelity are different objectives, and behavioral simulation should qualify models as samplers, not only as solvers.
PDF11April 16, 2026