ChatPaper.aiChatPaper

Sculptor: Het versterken van LLMs met cognitief vermogen via actief contextbeheer

Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management

August 6, 2025
Auteurs: Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) lijden aan een aanzienlijke prestatievermindering bij het verwerken van lange contexten als gevolg van proactieve interferentie, waarbij irrelevante informatie in eerdere delen van de context het redeneren en het geheugen oproepen verstoort. Terwijl het meeste onderzoek zich richt op externe geheugensystemen om de mogelijkheden van LLMs te vergroten, stellen wij een complementaire aanpak voor: het uitrusten van LLMs met Active Context Management (ACM)-tools om hun interne werkgeheugen actief te vormen. We introduceren Sculptor, een raamwerk dat LLMs uitrust met drie categorieën tools: (1) contextfragmentatie, (2) samenvatten, verbergen en herstellen, en (3) intelligente zoekopdrachten. Onze aanpak stelt LLMs in staat om hun aandacht en werkgeheugen proactief te beheren, vergelijkbaar met hoe mensen selectief focussen op relevante informatie terwijl ze afleidingen filteren. Experimentele evaluatie op informatie-arme benchmarks—PI-LLM (proactieve interferentie) en NeedleBench Multi-Needle Reasoning—toont aan dat Sculptor de prestaties aanzienlijk verbetert, zelfs zonder specifieke training, door gebruik te maken van de inherente tool-aanroepgeneraliseringsmogelijkheden van LLMs. Door Active Context Management mogelijk te maken, vermindert Sculptor niet alleen proactieve interferentie, maar biedt het ook een cognitieve basis voor betrouwbaarder redeneren over diverse lange-context taken—waarbij wordt benadrukt dat expliciete contextcontrole-strategieën, in plaats van slechts grotere tokenvensters, de sleutel zijn tot robuustheid op schaal.
English
Large Language Models (LLMs) suffer from significant performance degradation when processing long contexts due to proactive interference, where irrelevant information in earlier parts of the context disrupts reasoning and memory recall. While most research focuses on external memory systems to augment LLMs' capabilities, we propose a complementary approach: empowering LLMs with Active Context Management (ACM) tools to actively sculpt their internal working memory. We introduce Sculptor, a framework that equips LLMs with three categories of tools: (1) context fragmentation, (2) summary, hide, and restore, and (3) intelligent search. Our approach enables LLMs to proactively manage their attention and working memory, analogous to how humans selectively focus on relevant information while filtering out distractions. Experimental evaluation on information-sparse benchmarks-PI-LLM (proactive interference) and NeedleBench Multi-Needle Reasoning-demonstrates that Sculptor significantly improves performance even without specific training, leveraging LLMs' inherent tool calling generalization capabilities. By enabling Active Context Management, Sculptor not only mitigates proactive interference but also provides a cognitive foundation for more reliable reasoning across diverse long-context tasks-highlighting that explicit context-control strategies, rather than merely larger token windows, are key to robustness at scale.
PDF102August 7, 2025