El Pensamiento Hace a los Agentes de LLM Introvertidos: Cómo la Reflexión Obligada Puede Tener Efectos Contraproducentes en Agentes Comprometidos con el Usuario
Thinking Makes LLM Agents Introverted: How Mandatory Thinking Can Backfire in User-Engaged Agents
February 8, 2026
Autores: Jiatong Li, Changdae Oh, Hyeong Kyu Choi, Jindong Wang, Sharon Li
cs.AI
Resumen
La elicitación de razonamiento ha surgido como una técnica poderosa para mejorar el rendimiento de los modelos de lenguaje grandes (LLM) en tareas complejas mediante la inducción del pensamiento. Sin embargo, su efectividad en escenarios realistas de agentes interactuando con usuarios sigue sin estar clara. En este artículo, realizamos un estudio exhaustivo sobre el efecto del pensamiento explícito en agentes LLM que interactúan con usuarios. Nuestros experimentos abarcan siete modelos, tres puntos de referencia y dos instanciaciones de pensamiento, y los evaluamos mediante un análisis taxonómico cuantitativo de respuestas y estudios de caso cualitativos sobre propagación de fallos. Contrario a lo esperado, encontramos que el pensamiento obligatorio a menudo resulta contraproducente para los agentes en entornos de interacción con usuarios, causando una degradación anómala del rendimiento en varios LLM. Nuestro hallazgo clave revela que el pensamiento vuelve a los agentes más "introvertidos" al acortar las respuestas y reducir la divulgación de información a los usuarios, lo que debilita el intercambio de información agente-usuario y conduce a fallos en tareas subsiguientes. Además, demostramos que solicitar explícitamente la divulgación de información mejora consistentemente el rendimiento en diversas familias de modelos, sugiriendo que la transparencia proactiva es un mecanismo vital para la optimización de agentes. En general, nuestro estudio sugiere que la conciencia de la transparencia informativa es una perspectiva crucial pero poco explorada para el diseño futuro de agentes de razonamiento en escenarios del mundo real. Nuestro código está disponible en https://github.com/deeplearning-wisc/Thinking-Agent.
English
Eliciting reasoning has emerged as a powerful technique for improving the performance of large language models (LLMs) on complex tasks by inducing thinking. However, their effectiveness in realistic user-engaged agent scenarios remains unclear. In this paper, we conduct a comprehensive study on the effect of explicit thinking in user-engaged LLM agents. Our experiments span across seven models, three benchmarks, and two thinking instantiations, and we evaluate them through both a quantitative response taxonomy analysis and qualitative failure propagation case studies. Contrary to expectations, we find that mandatory thinking often backfires on agents in user-engaged settings, causing anomalous performance degradation across various LLMs. Our key finding reveals that thinking makes agents more ``introverted'' by shortening responses and reducing information disclosure to users, which weakens agent-user information exchange and leads to downstream task failures. Furthermore, we demonstrate that explicitly prompting for information disclosure reliably improves performance across diverse model families, suggesting that proactive transparency is a vital lever for agent optimization. Overall, our study suggests that information transparency awareness is a crucial yet underexplored perspective for the future design of reasoning agents in real-world scenarios. Our code is available at https://github.com/deeplearning-wisc/Thinking-Agent.