ChatPaper.aiChatPaper

Размышление делает агентов на основе больших языковых моделей интровертами: как обязательное размышление может дать обратный эффект в пользовательских агентах

Thinking Makes LLM Agents Introverted: How Mandatory Thinking Can Backfire in User-Engaged Agents

February 8, 2026
Авторы: Jiatong Li, Changdae Oh, Hyeong Kyu Choi, Jindong Wang, Sharon Li
cs.AI

Аннотация

Стимулирование рассуждений стало мощной методикой повышения производительности больших языковых моделей (LLM) на сложных задачах за счет индукции мышления. Однако их эффективность в реалистичных сценариях взаимодействия с пользователем остается неясной. В данной статье мы проводим комплексное исследование влияния явного мышления в LLM-агентах, взаимодействующих с пользователем. Наши эксперименты охватывают семь моделей, три тестовых набора и две реализации мышления, которые мы оцениваем с помощью количественного анализа таксономии ответов и качественных кейс-стади распространения ошибок. Вопреки ожиданиям, мы обнаруживаем, что принудительное мышление часто дает обратный эффект в условиях взаимодействия с пользователем, вызывая аномальное снижение производительности у различных LLM. Ключевой вывод заключается в том, что мышление делает агентов более «интровертными», сокращая ответы и уменьшая раскрытие информации пользователям, что ослабляет информационный обмен между агентом и пользователем и приводит к сбоям в последующих задачах. Кроме того, мы показываем, что явный запрос на раскрытие информации надежно улучшает производительность в различных семействах моделей, что свидетельствует о том, что проактивная прозрачность является важным рычагом оптимизации агентов. В целом, наше исследование показывает, что осознание информационной прозрачности представляет собой важную, но недостаточно изученную перспективу для будущего проектирования рассуждающих агентов в реальных сценариях. Наш код доступен по адресу https://github.com/deeplearning-wisc/Thinking-Agent.
English
Eliciting reasoning has emerged as a powerful technique for improving the performance of large language models (LLMs) on complex tasks by inducing thinking. However, their effectiveness in realistic user-engaged agent scenarios remains unclear. In this paper, we conduct a comprehensive study on the effect of explicit thinking in user-engaged LLM agents. Our experiments span across seven models, three benchmarks, and two thinking instantiations, and we evaluate them through both a quantitative response taxonomy analysis and qualitative failure propagation case studies. Contrary to expectations, we find that mandatory thinking often backfires on agents in user-engaged settings, causing anomalous performance degradation across various LLMs. Our key finding reveals that thinking makes agents more ``introverted'' by shortening responses and reducing information disclosure to users, which weakens agent-user information exchange and leads to downstream task failures. Furthermore, we demonstrate that explicitly prompting for information disclosure reliably improves performance across diverse model families, suggesting that proactive transparency is a vital lever for agent optimization. Overall, our study suggests that information transparency awareness is a crucial yet underexplored perspective for the future design of reasoning agents in real-world scenarios. Our code is available at https://github.com/deeplearning-wisc/Thinking-Agent.
PDF62February 11, 2026