ChatPaper.aiChatPaper

Sculptor : Renforcer les capacités cognitives des LLM grâce à une gestion active du contexte

Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management

August 6, 2025
papers.authors: Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu
cs.AI

papers.abstract

Les grands modèles de langage (LLMs) subissent une dégradation significative de leurs performances lorsqu'ils traitent des contextes longs, en raison d'interférences proactives où des informations non pertinentes dans les parties antérieures du contexte perturbent le raisonnement et la récupération en mémoire. Alors que la plupart des recherches se concentrent sur des systèmes de mémoire externe pour augmenter les capacités des LLMs, nous proposons une approche complémentaire : doter les LLMs d'outils de Gestion Active du Contexte (ACM) pour façonner activement leur mémoire de travail interne. Nous présentons Sculptor, un cadre qui équipe les LLMs de trois catégories d'outils : (1) fragmentation du contexte, (2) résumé, masquage et restauration, et (3) recherche intelligente. Notre approche permet aux LLMs de gérer proactivement leur attention et leur mémoire de travail, de manière analogue à la façon dont les humains se concentrent sélectivement sur les informations pertinentes tout en filtrant les distractions. L'évaluation expérimentale sur des benchmarks à faible densité d'information—PI-LLM (interférence proactive) et NeedleBench Multi-Needle Reasoning—démontre que Sculptor améliore significativement les performances même sans entraînement spécifique, en exploitant les capacités inhérentes des LLMs à généraliser l'appel d'outils. En permettant une Gestion Active du Contexte, Sculptor non seulement atténue les interférences proactives, mais fournit également une fondation cognitive pour un raisonnement plus fiable dans diverses tâches à contexte long—soulignant que des stratégies explicites de contrôle du contexte, plutôt que de simples fenêtres de tokens plus larges, sont essentielles pour une robustesse à grande échelle.
English
Large Language Models (LLMs) suffer from significant performance degradation when processing long contexts due to proactive interference, where irrelevant information in earlier parts of the context disrupts reasoning and memory recall. While most research focuses on external memory systems to augment LLMs' capabilities, we propose a complementary approach: empowering LLMs with Active Context Management (ACM) tools to actively sculpt their internal working memory. We introduce Sculptor, a framework that equips LLMs with three categories of tools: (1) context fragmentation, (2) summary, hide, and restore, and (3) intelligent search. Our approach enables LLMs to proactively manage their attention and working memory, analogous to how humans selectively focus on relevant information while filtering out distractions. Experimental evaluation on information-sparse benchmarks-PI-LLM (proactive interference) and NeedleBench Multi-Needle Reasoning-demonstrates that Sculptor significantly improves performance even without specific training, leveraging LLMs' inherent tool calling generalization capabilities. By enabling Active Context Management, Sculptor not only mitigates proactive interference but also provides a cognitive foundation for more reliable reasoning across diverse long-context tasks-highlighting that explicit context-control strategies, rather than merely larger token windows, are key to robustness at scale.
PDF102August 7, 2025