ChatPaper.aiChatPaper

Grote taalmodellen denken te snel om effectief te kunnen verkennen.

Large Language Models Think Too Fast To Explore Effectively

January 29, 2025
Auteurs: Lan Pan, Hanbo Xie, Robert C. Wilson
cs.AI

Samenvatting

Grote Taalmodellen hebben vele intellectuele capaciteiten aan het licht gebracht. Hoewel talrijke benchmarks hun intelligentie beoordelen, is er beperkte aandacht besteed aan hun vermogen om te verkennen, een essentiële capaciteit voor het ontdekken van nieuwe informatie en het aanpassen aan nieuwe omgevingen in zowel natuurlijke als kunstmatige systemen. Het blijft onduidelijk in hoeverre Grote Taalmodellen effectief kunnen verkennen, met name in open taken. Dit onderzoek onderzoekt of Grote Taalmodellen mensen kunnen overtreffen in verkenning tijdens een open taak, met behulp van Little Alchemy 2 als paradigma, waarbij agenten elementen combineren om nieuwe te ontdekken. De resultaten tonen aan dat de meeste Grote Taalmodellen minder presteren in vergelijking met mensen, behalve het o1-model, waarbij de traditionele Grote Taalmodellen voornamelijk vertrouwen op door onzekerheid gedreven strategieën, in tegenstelling tot mensen die onzekerheid en empowerment in balans brengen. De representatieanalyse van de modellen met Schaarse Auto-encoders onthulde dat onzekerheid en keuzes worden gerepresenteerd in eerdere transformer-blokken, terwijl empowermentwaarden later worden verwerkt, waardoor Grote Taalmodellen te snel denken en voorbarige beslissingen nemen, wat effectieve verkenning belemmert. Deze bevindingen werpen licht op de beperkingen van de verkenning door Grote Taalmodellen en suggereren richtingen voor het verbeteren van hun aanpassingsvermogen.
English
Large Language Models have emerged many intellectual capacities. While numerous benchmarks assess their intelligence, limited attention has been given to their ability to explore, an essential capacity for discovering new information and adapting to novel environments in both natural and artificial systems. The extent to which LLMs can effectively explore, particularly in open-ended tasks, remains unclear. This study investigates whether LLMs can surpass humans in exploration during an open-ended task, using Little Alchemy 2 as a paradigm, where agents combine elements to discover new ones. Results show most LLMs underperform compared to humans, except for the o1 model, with those traditional LLMs relying primarily on uncertainty driven strategies, unlike humans who balance uncertainty and empowerment. Representational analysis of the models with Sparse Autoencoders revealed that uncertainty and choices are represented at earlier transformer blocks, while empowerment values are processed later, causing LLMs to think too fast and make premature decisions, hindering effective exploration. These findings shed light on the limitations of LLM exploration and suggest directions for improving their adaptability.

Summary

AI-Generated Summary

PDF243January 31, 2025