ChatPaper.aiChatPaper

Большие языковые модели думают настолько быстро, что не могут эффективно исследовать окружающее пространство.

Large Language Models Think Too Fast To Explore Effectively

January 29, 2025
Авторы: Lan Pan, Hanbo Xie, Robert C. Wilson
cs.AI

Аннотация

Большие языковые модели обладают множеством интеллектуальных способностей. Хотя множество бенчмарков оценивают их интеллект, мало внимания уделяется их способности к исследованию, важной характеристике для обнаружения новой информации и адаптации к новым средам как в естественных, так и в искусственных системах. Неясно, насколько эффективно БЯМ могут исследовать, особенно в задачах с открытым исходом. В данном исследовании исследуется, могут ли БЯМ превзойти людей в исследовании во время задачи с открытым исходом, используя Little Alchemy 2 в качестве парадигмы, где агенты комбинируют элементы для обнаружения новых. Результаты показывают, что большинство БЯМ уступают людям, за исключением модели o1, при этом традиционные БЯМ в основном полагаются на стратегии, основанные на неопределенности, в отличие от людей, которые уравновешивают неопределенность и уполномочивание. Репрезентационный анализ моделей с разреженными автокодировщиками показал, что неопределенность и выборы представлены на более ранних блоках трансформера, в то время как значения уполномочивания обрабатываются позже, что заставляет БЯМ думать слишком быстро и делать преждевременные решения, затрудняя эффективное исследование. Эти результаты проливают свет на ограничения исследования БЯМ и предлагают направления для улучшения их адаптивности.
English
Large Language Models have emerged many intellectual capacities. While numerous benchmarks assess their intelligence, limited attention has been given to their ability to explore, an essential capacity for discovering new information and adapting to novel environments in both natural and artificial systems. The extent to which LLMs can effectively explore, particularly in open-ended tasks, remains unclear. This study investigates whether LLMs can surpass humans in exploration during an open-ended task, using Little Alchemy 2 as a paradigm, where agents combine elements to discover new ones. Results show most LLMs underperform compared to humans, except for the o1 model, with those traditional LLMs relying primarily on uncertainty driven strategies, unlike humans who balance uncertainty and empowerment. Representational analysis of the models with Sparse Autoencoders revealed that uncertainty and choices are represented at earlier transformer blocks, while empowerment values are processed later, causing LLMs to think too fast and make premature decisions, hindering effective exploration. These findings shed light on the limitations of LLM exploration and suggest directions for improving their adaptability.

Summary

AI-Generated Summary

PDF243January 31, 2025