ChatPaper.aiChatPaper

Когда модели рассуждений вредят поведенческому моделированию: несоответствие между решателем и сэмплером в переговорах мультиагентных языковых моделей

When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation

April 12, 2026
Авторы: Sandro Andric
cs.AI

Аннотация

Крупные языковые модели все чаще используются в качестве агентов в социальных, экономических и политических симуляциях. Распространено предположение, что более совершенные способности к рассуждению должны повышать достоверность моделирования. Мы утверждаем, что это предположение может оказаться ошибочным, когда цель состоит не в решении стратегической задачи, а в выборке правдоподобного ограниченно рационального поведения. В таких условиях модели с улучшенным мышлением могут становиться лучшими решателями, но худшими симуляторами: они могут чрезмерно оптимизироваться под стратегически доминирующие действия, нивелировать компромиссное терминальное поведение и иногда демонстрировать паттерн «разнообразие без достоверности», при котором локальные вариации сохраняются, но отсутствует достоверность на уровне исходов. Мы исследуем это несоответствие между «решателем» и «сэмплером» в трех средах многоагентных переговоров, адаптированных из предыдущих работ по моделированию: сценарий с неясными торговыми лимитами при фрагментированной власти, сценарий с неясными торговыми лимитами при едином противодействии и новый кейс ограничения нагрузки в энергосистеме при аварийном управлении электроснабжением. Мы сравниваем три условия рефлексии — без рефлексии, ограниченная рефлексия и естественное рассуждение — для двух основных семейств моделей, а затем расширяем тот же протокол на прямые запуски OpenAI с GPT-4.1 и GPT-5.2. Во всех трех экспериментах ограниченная рефлексия порождает значительно более разнообразные и ориентированные на компромисс траектории по сравнению с отсутствием рефлексии или естественным рассуждением. В расширении с прямым запуском OpenAI нативная модель GPT-5.2 завершается решениями властей в 45 из 45 запусков во всех трех экспериментах, тогда как GPT-5.2 с ограниченной рефлексией восстанавливает компромиссные исходы в каждой среде. Наш вклад — не утверждение, что рассуждения вообще вредны. Это методологическое предупреждение: возможности модели и достоверность симуляции — это разные цели, и поведенческое моделирование должно оценивать модели как сэмплеры, а не только как решатели.
English
Large language models are increasingly used as agents in social, economic, and policy simulations. A common assumption is that stronger reasoning should improve simulation fidelity. We argue that this assumption can fail when the objective is not to solve a strategic problem, but to sample plausible boundedly rational behavior. In such settings, reasoning-enhanced models can become better solvers and worse simulators: they can over-optimize for strategically dominant actions, collapse compromise-oriented terminal behavior, and sometimes exhibit a diversity-without-fidelity pattern in which local variation survives without outcome-level fidelity. We study this solver-sampler mismatch in three multi-agent negotiation environments adapted from earlier simulation work: an ambiguous fragmented-authority trading-limits scenario, an ambiguous unified-opposition trading-limits scenario, and a new-domain grid-curtailment case in emergency electricity management. We compare three reflection conditions, no reflection, bounded reflection, and native reasoning, across two primary model families and then extend the same protocol to direct OpenAI runs with GPT-4.1 and GPT-5.2. Across all three experiments, bounded reflection produces substantially more diverse and compromise-oriented trajectories than either no reflection or native reasoning. In the direct OpenAI extension, GPT-5.2 native ends in authority decisions in 45 of 45 runs across the three experiments, while GPT-5.2 bounded recovers compromise outcomes in every environment. The contribution is not a claim that reasoning is generally harmful. It is a methodological warning: model capability and simulation fidelity are different objectives, and behavioral simulation should qualify models as samplers, not only as solvers.
PDF11April 16, 2026