Агенты исследуют, но агенты игнорируют: крупным языковым моделям не хватает исследовательского интереса к среде
Agents Explore but Agents Ignore: LLMs Lack Environmental Curiosity
April 19, 2026
Авторы: Leon Engländer, Sophia Althammer, Ahmet Üstün, Matthias Gallé, Tom Sherborne
cs.AI
Аннотация
Предполагается, что агенты на основе больших языковых моделей (LLM) интегрируют наблюдения за средой в свои рассуждения: обнаружение высоко релевантной, но неожиданной информации должно естественным образом приводить к модели, использующей собственные открытия. Мы показываем, что это предположение ложно для современных агентов на основе LLM, которые с трудом отражают или реагируют на неожиданную информацию. На трех тестовых наборах (Terminal-Bench, SWE-Bench, AppWorld) мы внедряем полные решения задач в среды агентов, чтобы намеренно предоставить модели решение задачи. Хотя агенты обнаруживают эти решения в Terminal-Bench в 79–81% запусков, они взаимодействуют с ними или используют их лишь в 37–50% случаев. Этот разрыв наиболее ярко выражен в AppWorld: агенты видят документацию, в которой утверждается, что команда «возвращает полное решение этой задачи», более чем в 90% попыток, но используют это менее чем в 7% испытаний. Мы демонстрируем, что агентам не хватает того, что мы называем **средовой любознательностью** — способности распознавать и исследовать неожиданные, но релевантные наблюдения в ответ на стимулы среды. Мы определяем три основных фактора, влияющих на средовую любознательность: доступные инструменты в каркасе агента, вычислительные ресурсы во время тестирования и распределение обучающих данных. Наши результаты показывают, что конфигурации, максимизирующие любознательность, также достигают наилучшей производительности на немодифицированных тестовых наборах. Тем не менее, даже совместно оптимизированные агенты в большинстве испытаний игнорируют обнаруженные решения: текущие агенты используют среду для получения ожидаемой информации, но не для пересмотра своей стратегии или максимального использования полезных стимулов.
English
LLM-based agents are assumed to integrate environmental observations into their reasoning: discovering highly relevant but unexpected information should naturally lead to a model exploiting its own discoveries. We show that this assumption is false for current LLM-based agents, which struggle to reflect or react to unexpected information. Across three benchmarks (Terminal-Bench, SWE-Bench, AppWorld), we inject complete task solutions into the agent environments to deliberately expose a task's solution to a model. While agents discover these solutions on Terminal-Bench in 79-81% of runs, they interact, or exploit, them in only 37-50% of cases. This gap is starkest in AppWorld: agents see documentation stating that a command "returns the complete solution to this task" in over 90% of attempts but exploit this in fewer than 7% of trials. We show that agents lack what we call environmental curiosity: the capability to recognize and investigate unexpected but relevant observations in response to environmental stimuli. We identify three main factors influencing environmental curiosity: available tools in the agent scaffold, test-time compute, and training data distribution. Our findings identify configurations that maximize curiosity also achieve the best performance on the unmodified benchmarks. Yet even jointly optimized agents still ignore discovered solutions in the majority of trials: current agents use the environment to fetch expected information, but not to revise their strategy or maximally exploit useful stimuli.