SWE-Pruner: Selbstadaptive Kontextreduzierung für Code-Agenten
SWE-Pruner: Self-Adaptive Context Pruning for Coding Agents
January 23, 2026
papers.authors: Yuhang Wang, Yuling Shi, Mo Yang, Rongrui Zhang, Shilin He, Heng Lian, Yuting Chen, Siyu Ye, Kai Cai, Xiaodong Gu
cs.AI
papers.abstract
LLM-Agenten haben bemerkenswerte Fähigkeiten in der Softwareentwicklung demonstriert, doch ihre Leistung wird durch lange Interaktionskontexte beeinträchtigt, die hohe API-Kosten und Latenzzeiten verursachen. Obwohl verschiedene Kontextkomprimierungsansätze wie LongLLMLingua entstanden sind, um diese Herausforderung zu bewältigen, verlassen sie sich typischerweise auf feste Metriken wie PPL und ignorieren die aufgaben spezifische Natur des Codeverständnisses. Folglich stören sie häufig die syntaktische und logische Struktur und scheitern daran, kritische Implementierungsdetails zu erhalten. In diesem Artikel schlagen wir SWE-Pruner vor, einen selbstadaptiven Kontextreduzierungsrahmen, der speziell für Code-Agenten entwickelt wurde. Inspiriert davon, wie menschliche Programmierer Quellcode während der Entwicklung und Fehlersuche "selektiv überfliegen", führt SWE-Pruner aufgabenbewusste adaptive Reduzierung für lange Kontexte durch. Basierend auf der aktuellen Aufgabe formuliert der Agent ein explizites Ziel (z.B. "Fokus auf Fehlerbehandlung") als Hinweis, um die Reduzierungsziele zu steuern. Ein leichter neuronaler Skimmer (0,6B Parameter) wird trainiert, um dynamisch relevante Zeilen aus dem umgebenden Kontext anhand des Ziels auszuwählen. Evaluationen über vier Benchmarks und mehrere Modelle validieren die Wirksamkeit von SWE-Pruner in verschiedenen Szenarien, wobei eine Token-Reduzierung von 23–54 % bei Agentenaufgaben wie SWE-Bench Verified und eine Kompression von bis zu 14,84x bei Einzelrunden-Aufgaben wie LongCodeQA mit minimalen Leistungseinbußen erreicht wird.
English
LLM agents have demonstrated remarkable capabilities in software development, but their performance is hampered by long interaction contexts, which incur high API costs and latency. While various context compression approaches such as LongLLMLingua have emerged to tackle this challenge, they typically rely on fixed metrics such as PPL, ignoring the task-specific nature of code understanding. As a result, they frequently disrupt syntactic and logical structure and fail to retain critical implementation details. In this paper, we propose SWE-Pruner, a self-adaptive context pruning framework tailored for coding agents. Drawing inspiration from how human programmers "selectively skim" source code during development and debugging, SWE-Pruner performs task-aware adaptive pruning for long contexts. Given the current task, the agent formulates an explicit goal (e.g., "focus on error handling") as a hint to guide the pruning targets. A lightweight neural skimmer (0.6B parameters) is trained to dynamically select relevant lines from the surrounding context given the goal. Evaluations across four benchmarks and multiple models validate SWE-Pruner's effectiveness in various scenarios, achieving 23-54% token reduction on agent tasks like SWE-Bench Verified and up to 14.84x compression on single-turn tasks like LongCodeQA with minimal performance impact.