思考がLLMエージェントを内向的にする:ユーザー参加型エージェントにおける強制的思考の逆効果
Thinking Makes LLM Agents Introverted: How Mandatory Thinking Can Backfire in User-Engaged Agents
February 8, 2026
著者: Jiatong Li, Changdae Oh, Hyeong Kyu Choi, Jindong Wang, Sharon Li
cs.AI
要旨
推論の誘導は、思考を誘発することで複雑なタスクにおける大規模言語モデル(LLM)の性能を向上させる強力な技術として登場した。しかし、現実的なユーザー関与型エージェントシナリオにおけるその有効性は未だ不明確である。本論文では、ユーザー関与型LLMエージェントにおける明示的思考の効果について包括的な研究を行う。我々の実験は、7つのモデル、3つのベンチマーク、2つの思考の具体化に及び、定量的な応答分類分析と定性的な失敗伝播ケーススタディを通じて評価を行う。予想に反して、ユーザー関与型設定では、強制的な思考がしばしばエージェントに逆効果となり、様々なLLMで異常な性能劣化を引き起こすことを発見した。我々の重要な発見は、思考がエージェントをより「内向的」にし、応答を短くし、ユーザーへの情報開示を減らすことで、エージェントとユーザー間の情報交換を弱め、下流タスクの失敗につながることを明らかにした。さらに、情報開示を明示的に促すことが、多様なモデルファミリーにわたって確実に性能を向上させることを実証し、能動的な透明性がエージェント最適化のための重要な手段であることを示唆する。全体として、我々の研究は、情報透明性の認識が、現実世界シナリオにおける推論エージェントの将来の設計にとって、重要でありながら十分に探求されていない視点であることを示唆する。コードはhttps://github.com/deeplearning-wisc/Thinking-Agent で公開されている。
English
Eliciting reasoning has emerged as a powerful technique for improving the performance of large language models (LLMs) on complex tasks by inducing thinking. However, their effectiveness in realistic user-engaged agent scenarios remains unclear. In this paper, we conduct a comprehensive study on the effect of explicit thinking in user-engaged LLM agents. Our experiments span across seven models, three benchmarks, and two thinking instantiations, and we evaluate them through both a quantitative response taxonomy analysis and qualitative failure propagation case studies. Contrary to expectations, we find that mandatory thinking often backfires on agents in user-engaged settings, causing anomalous performance degradation across various LLMs. Our key finding reveals that thinking makes agents more ``introverted'' by shortening responses and reducing information disclosure to users, which weakens agent-user information exchange and leads to downstream task failures. Furthermore, we demonstrate that explicitly prompting for information disclosure reliably improves performance across diverse model families, suggesting that proactive transparency is a vital lever for agent optimization. Overall, our study suggests that information transparency awareness is a crucial yet underexplored perspective for the future design of reasoning agents in real-world scenarios. Our code is available at https://github.com/deeplearning-wisc/Thinking-Agent.