ChatPaper.aiChatPaper

推論モデルが行動シミュレーションを損なう場合:マルチエージェントLLM交渉におけるソルバーとサンプラーのミスマッチ

When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation

April 12, 2026
著者: Sandro Andric
cs.AI

要旨

大規模言語モデルが、社会的・経済的・政策的シミュレーションにおけるエージェントとしてますます利用されている。一般的な仮定として、推論能力が高まればシミュレーションの忠実度も向上するはずだと考えられている。我々は、目的が戦略的問題を解決することではなく、もっともらしい限定合理的行動をサンプリングすることである場合、この仮定が成り立たない可能性があると論じる。このような設定では、推論能力が強化されたモデルは、より優れた「問題解決者」となりながら、より劣った「シミュレーター」となりうる。すなわち、戦略的に支配的な行動へ過剰に最適化し、妥協指向の最終的な行動を消失させ、時には、結果レベルの忠実度がなくても局所的な多様性が残存する「忠実度を伴わない多様性」パターンを呈することがある。我々はこの「解決者-サンプラー」のミスマッチを、過去のシミュレーション研究から改変した3つのマルチエージェント交渉環境(曖昧な分権的権限を持つ取引制限シナリオ、曖昧な単一の反対勢力を持つ取引制限シナリオ、緊急電力管理における新規領域の送電制御ケース)で検証する。3つの内省条件(内省なし、限定内省、自然な推論)を2つの主要なモデルファミリーで比較し、その後、同じプロトコルをGPT-4.1およびGPT-5.2を用いたOpenAIの直接実行に拡張する。3つの実験すべてを通じて、限定内省は、内省なしや自然な推論と比べて、実質的に多様で妥協指向の軌道を大幅に多く生成した。OpenAI拡張実験では、GPT-5.2自然推論は3実験合計45回の実行すべてが権限者による決定で終了したのに対し、GPT-5.2限定内省はあらゆる環境で妥協による帰結を回復した。本稿の貢献は、推論が一般的に有害であるという主張ではない。それは方法論的警告である:モデルの能力とシミュレーションの忠実度は異なる目的であり、行動シミュレーションではモデルを「解決者」としてだけでなく「サンプラー」としても評価すべきである。
English
Large language models are increasingly used as agents in social, economic, and policy simulations. A common assumption is that stronger reasoning should improve simulation fidelity. We argue that this assumption can fail when the objective is not to solve a strategic problem, but to sample plausible boundedly rational behavior. In such settings, reasoning-enhanced models can become better solvers and worse simulators: they can over-optimize for strategically dominant actions, collapse compromise-oriented terminal behavior, and sometimes exhibit a diversity-without-fidelity pattern in which local variation survives without outcome-level fidelity. We study this solver-sampler mismatch in three multi-agent negotiation environments adapted from earlier simulation work: an ambiguous fragmented-authority trading-limits scenario, an ambiguous unified-opposition trading-limits scenario, and a new-domain grid-curtailment case in emergency electricity management. We compare three reflection conditions, no reflection, bounded reflection, and native reasoning, across two primary model families and then extend the same protocol to direct OpenAI runs with GPT-4.1 and GPT-5.2. Across all three experiments, bounded reflection produces substantially more diverse and compromise-oriented trajectories than either no reflection or native reasoning. In the direct OpenAI extension, GPT-5.2 native ends in authority decisions in 45 of 45 runs across the three experiments, while GPT-5.2 bounded recovers compromise outcomes in every environment. The contribution is not a claim that reasoning is generally harmful. It is a methodological warning: model capability and simulation fidelity are different objectives, and behavioral simulation should qualify models as samplers, not only as solvers.
PDF11April 16, 2026