Denken macht LLM-Agenten introvertiert: Wie obligatorisches Nachdenken bei nutzerengagierten Agenten nach hinten losgehen kann
Thinking Makes LLM Agents Introverted: How Mandatory Thinking Can Backfire in User-Engaged Agents
February 8, 2026
papers.authors: Jiatong Li, Changdae Oh, Hyeong Kyu Choi, Jindong Wang, Sharon Li
cs.AI
papers.abstract
Das Erzeugen von Denkprozessen hat sich als leistungsstarke Technik erwiesen, um die Leistung großer Sprachmodelle (LLMs) bei komplexen Aufgaben durch induziertes Denken zu verbessern. Ihre Wirksamkeit in realistischen, nutzerbeteiligten Agentenszenarien bleibt jedoch unklar. In dieser Arbeit führen wir eine umfassende Studie über die Wirkung expliziten Denkens in nutzerbeteiligten LLM-Agenten durch. Unsere Experimente umfassen sieben Modelle, drei Benchmarks und zwei Denk-Instanziierungen, die wir sowohl durch eine quantitative Taxonomieanalyse der Antworten als auch durch qualitative Fallstudien zur Fehlerfortpflanzung auswerten. Entgegen den Erwartungen stellen wir fest, dass obligatorisches Denken in nutzerbeteiligten Settings für Agenten oft nachteilig ist und zu anomalen Leistungseinbußen bei verschiedenen LLMs führt. Unsere zentrale Erkenntnis zeigt, dass Denken Agenten „introvertierter“ macht, indem es Antworten verkürzt und die Informationspreisgabe an Nutzer reduziert, was den Informationsaustausch zwischen Agent und Nutzer schwächt und zu nachgelagerten Aufgabenfehlern führt. Darüber hinaus demonstrieren wir, dass explizites Auffordern zur Informationspreisgabe die Leistung über verschiedene Modellfamilien hinweg zuverlässig verbessert, was nahelegt, dass proaktive Transparenz ein entscheidender Hebel für die Agentenoptimierung ist. Insgesamt legt unsere Studie nahe, dass das Bewusstsein für Informations-transparenz eine entscheidende, aber bislang wenig erforschte Perspektive für das zukünftige Design von Denkagenten in realen Szenarien darstellt. Unser Code ist verfügbar unter https://github.com/deeplearning-wisc/Thinking-Agent.
English
Eliciting reasoning has emerged as a powerful technique for improving the performance of large language models (LLMs) on complex tasks by inducing thinking. However, their effectiveness in realistic user-engaged agent scenarios remains unclear. In this paper, we conduct a comprehensive study on the effect of explicit thinking in user-engaged LLM agents. Our experiments span across seven models, three benchmarks, and two thinking instantiations, and we evaluate them through both a quantitative response taxonomy analysis and qualitative failure propagation case studies. Contrary to expectations, we find that mandatory thinking often backfires on agents in user-engaged settings, causing anomalous performance degradation across various LLMs. Our key finding reveals that thinking makes agents more ``introverted'' by shortening responses and reducing information disclosure to users, which weakens agent-user information exchange and leads to downstream task failures. Furthermore, we demonstrate that explicitly prompting for information disclosure reliably improves performance across diverse model families, suggesting that proactive transparency is a vital lever for agent optimization. Overall, our study suggests that information transparency awareness is a crucial yet underexplored perspective for the future design of reasoning agents in real-world scenarios. Our code is available at https://github.com/deeplearning-wisc/Thinking-Agent.