La réflexion rend les agents LLM introvertis : comment l'obligation de réfléchir peut se retourner contre les agents engagés avec l'utilisateur
Thinking Makes LLM Agents Introverted: How Mandatory Thinking Can Backfire in User-Engaged Agents
February 8, 2026
papers.authors: Jiatong Li, Changdae Oh, Hyeong Kyu Choi, Jindong Wang, Sharon Li
cs.AI
papers.abstract
L'incitation au raisonnement est apparue comme une technique puissante pour améliorer les performances des grands modèles de langage (LLM) sur des tâches complexes en induisant une réflexion. Cependant, leur efficacité dans des scénarios réalistes d'agents interactifs avec des utilisateurs reste incertaine. Dans cet article, nous menons une étude exhaustive sur l'effet d'une réflexion explicite dans les agents LLM engagés avec des utilisateurs. Nos expériences couvrent sept modèles, trois benchmarks et deux instanciations de raisonnement, que nous évaluons à la fois par une analyse taxonomique quantitative des réponses et par des études de cas qualitatives sur la propagation des échecs. Contrairement aux attentes, nous constatons qu'une réflexion obligatoire se retourne souvent contre les agents dans des contextes interactifs, entraînant une dégradation anormale des performances across divers LLM. Notre découverte clé révèle que la réflexion rend les agents plus « introvertis » en raccourcissant les réponses et en réduisant la divulgation d'informations aux utilisateurs, ce qui affaiblit l'échange d'informations entre l'agent et l'utilisateur et conduit à des échecs dans les tâches en aval. De plus, nous démontrons qu'inciter explicitement à la divulgation d'informations améliore de manière fiable les performances across différentes familles de modèles, suggérant que la transparence proactive est un levier essentiel pour l'optimisation des agents. Globalement, notre étude indique que la conscience de la transparence informationnelle est une perspective cruciale mais encore peu explorée pour la conception future d'agents raisonneurs dans des scénarios réels. Notre code est disponible à l'adresse https://github.com/deeplearning-wisc/Thinking-Agent.
English
Eliciting reasoning has emerged as a powerful technique for improving the performance of large language models (LLMs) on complex tasks by inducing thinking. However, their effectiveness in realistic user-engaged agent scenarios remains unclear. In this paper, we conduct a comprehensive study on the effect of explicit thinking in user-engaged LLM agents. Our experiments span across seven models, three benchmarks, and two thinking instantiations, and we evaluate them through both a quantitative response taxonomy analysis and qualitative failure propagation case studies. Contrary to expectations, we find that mandatory thinking often backfires on agents in user-engaged settings, causing anomalous performance degradation across various LLMs. Our key finding reveals that thinking makes agents more ``introverted'' by shortening responses and reducing information disclosure to users, which weakens agent-user information exchange and leads to downstream task failures. Furthermore, we demonstrate that explicitly prompting for information disclosure reliably improves performance across diverse model families, suggesting that proactive transparency is a vital lever for agent optimization. Overall, our study suggests that information transparency awareness is a crucial yet underexplored perspective for the future design of reasoning agents in real-world scenarios. Our code is available at https://github.com/deeplearning-wisc/Thinking-Agent.