ChatPaper.aiChatPaper

Cuando los Modelos de Razonamiento Perjudican la Simulación Conductual: Un Desajuste Resolvedor-Muestreador en Negociación Multi-Agente con LLM

When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation

April 12, 2026
Autores: Sandro Andric
cs.AI

Resumen

Los modelos de lenguaje a gran escala se utilizan cada vez más como agentes en simulaciones sociales, económicas y de políticas. Una suposición común es que una capacidad de razonamiento más sólida debería mejorar la fidelidad de la simulación. Sostenemos que esta suposición puede fallar cuando el objetivo no es resolver un problema estratégico, sino muestrear comportamientos plausibles con racionalidad limitada. En tales contextos, los modelos potenciados con razonamiento pueden convertirse en mejores solucionadores de problemas y peores simuladores: pueden sobre-optimizar acciones estratégicamente dominantes, colapsar el comportamiento terminal orientado al compromiso y, a veces, exhibir un patrón de diversidad sin fidelidad en el que la variación local sobrevive sin fidelidad a nivel de resultados. Estudiamos este desajuste entre solucionador y muestreador en tres entornos de negociación multiagente adaptados de trabajos de simulación anteriores: un escenario de límites comerciales con autoridad fragmentada y ambigua, un escenario de límites comerciales con oposición unificada y ambigua, y un caso nuevo de restricción de red en la gestión de electricidad de emergencia. Comparamos tres condiciones de reflexión (sin reflexión, reflexión limitada y razonamiento nativo) en dos familias principales de modelos y luego extendemos el mismo protocolo a ejecuciones directas de OpenAI con GPT-4.1 y GPT-5.2. En los tres experimentos, la reflexión limitada produce trayectorias sustancialmente más diversas y orientadas al compromiso que la ausencia de reflexión o el razonamiento nativo. En la extensión directa con OpenAI, GPT-5.2 nativo termina en decisiones de autoridad en 45 de 45 ejecuciones en los tres experimentos, mientras que GPT-5.2 con reflexión limitada recupera resultados de compromiso en cada entorno. La contribución no es una afirmación de que el razonamiento sea generalmente perjudicial. Es una advertencia metodológica: la capacidad del modelo y la fidelidad de la simulación son objetivos diferentes, y la simulación conductual debe calificar a los modelos como muestreadores, no solo como solucionadores de problemas.
English
Large language models are increasingly used as agents in social, economic, and policy simulations. A common assumption is that stronger reasoning should improve simulation fidelity. We argue that this assumption can fail when the objective is not to solve a strategic problem, but to sample plausible boundedly rational behavior. In such settings, reasoning-enhanced models can become better solvers and worse simulators: they can over-optimize for strategically dominant actions, collapse compromise-oriented terminal behavior, and sometimes exhibit a diversity-without-fidelity pattern in which local variation survives without outcome-level fidelity. We study this solver-sampler mismatch in three multi-agent negotiation environments adapted from earlier simulation work: an ambiguous fragmented-authority trading-limits scenario, an ambiguous unified-opposition trading-limits scenario, and a new-domain grid-curtailment case in emergency electricity management. We compare three reflection conditions, no reflection, bounded reflection, and native reasoning, across two primary model families and then extend the same protocol to direct OpenAI runs with GPT-4.1 and GPT-5.2. Across all three experiments, bounded reflection produces substantially more diverse and compromise-oriented trajectories than either no reflection or native reasoning. In the direct OpenAI extension, GPT-5.2 native ends in authority decisions in 45 of 45 runs across the three experiments, while GPT-5.2 bounded recovers compromise outcomes in every environment. The contribution is not a claim that reasoning is generally harmful. It is a methodological warning: model capability and simulation fidelity are different objectives, and behavioral simulation should qualify models as samplers, not only as solvers.
PDF11April 16, 2026