ChatPaper.aiChatPaper

Große Sprachmodelle denken zu schnell, um effektiv zu erkunden.

Large Language Models Think Too Fast To Explore Effectively

January 29, 2025
Autoren: Lan Pan, Hanbo Xie, Robert C. Wilson
cs.AI

Zusammenfassung

Große Sprachmodelle haben viele intellektuelle Fähigkeiten entwickelt. Während zahlreiche Benchmarks ihre Intelligenz bewerten, wurde ihrer Fähigkeit zur Exploration, einer wesentlichen Fähigkeit zur Entdeckung neuer Informationen und Anpassung an neue Umgebungen in natürlichen und künstlichen Systemen, nur begrenzte Aufmerksamkeit geschenkt. Das Ausmaß, in dem große Sprachmodelle effektiv erkunden können, insbesondere bei offenen Aufgaben, bleibt unklar. Diese Studie untersucht, ob große Sprachmodelle Menschen bei der Exploration während einer offenen Aufgabe übertreffen können, wobei Little Alchemy 2 als Paradigma verwendet wird, bei dem Agenten Elemente kombinieren, um neue zu entdecken. Die Ergebnisse zeigen, dass die meisten großen Sprachmodelle im Vergleich zu Menschen unterdurchschnittlich abschneiden, mit Ausnahme des o1-Modells, wobei diese traditionellen großen Sprachmodelle hauptsächlich auf Unsicherheitsstrategien setzen, im Gegensatz zu Menschen, die Unsicherheit und Empowerment ausbalancieren. Die Repräsentationsanalyse der Modelle mit Sparse Autoencodern ergab, dass Unsicherheit und Entscheidungen in früheren Transformer-Blöcken dargestellt werden, während Empowerment-Werte später verarbeitet werden, was dazu führt, dass große Sprachmodelle zu schnell denken und voreilige Entscheidungen treffen, was die effektive Exploration behindert. Diese Erkenntnisse beleuchten die Grenzen der Exploration großer Sprachmodelle und legen Richtungen zur Verbesserung ihrer Anpassungsfähigkeit nahe.
English
Large Language Models have emerged many intellectual capacities. While numerous benchmarks assess their intelligence, limited attention has been given to their ability to explore, an essential capacity for discovering new information and adapting to novel environments in both natural and artificial systems. The extent to which LLMs can effectively explore, particularly in open-ended tasks, remains unclear. This study investigates whether LLMs can surpass humans in exploration during an open-ended task, using Little Alchemy 2 as a paradigm, where agents combine elements to discover new ones. Results show most LLMs underperform compared to humans, except for the o1 model, with those traditional LLMs relying primarily on uncertainty driven strategies, unlike humans who balance uncertainty and empowerment. Representational analysis of the models with Sparse Autoencoders revealed that uncertainty and choices are represented at earlier transformer blocks, while empowerment values are processed later, causing LLMs to think too fast and make premature decisions, hindering effective exploration. These findings shed light on the limitations of LLM exploration and suggest directions for improving their adaptability.

Summary

AI-Generated Summary

PDF243January 31, 2025