ChatPaper.aiChatPaper

CASCADE: Fallbasierte kontinuierliche Anpassung für große Sprachmodelle während des Einsatzes

CASCADE: Case-Based Continual Adaptation for Large Language Models During Deployment

May 5, 2026
Autoren: Siyuan Guo, Yali Du, Hechang Chen, Yi Chang, Jun Wang
cs.AI

Zusammenfassung

Große Sprachmodelle (Large Language Models, LLMs) sind zu einer zentralen Grundlage der modernen künstlichen Intelligenz geworden, doch ihr Lebenszyklus bleibt durch eine starre Trennung von Training und Einsatz eingeschränkt, nach der das Lernen faktisch endet. Diese Einschränkung steht im Gegensatz zu natürlicher Intelligenz, die sich durch Interaktion mit ihrer Umgebung kontinuierlich anpasst. In dieser Arbeit formalisieren wir das Lernen zur Einsatzzeit (Deployment-Time Learning, DTL) als dritte Phase im LLM-Lebenszyklus, die es LLM-Agenten ermöglicht, während des Einsatzes aus Erfahrung zu lernen, ohne Modellparameter zu verändern. Wir stellen CASCADE (CASe-based Continual Adaptation during DEployment) vor – ein allgemeines und prinzipienbasiertes Framework, das LLM-Agenten mit einem expliziten, sich entwickelnden episodischen Gedächtnis ausstattet. CASCADE formuliert die Wiederverwendung von Erfahrung als kontextuelles Banditenproblem, das prinzipienbasierte Explorations-Exploitations-Abwägungen ermöglicht und No-Regret-Garantien über langfristige Interaktionen etabliert. Dieses Design erlaubt es Agenten, aufgabenrelevante Fälle zu sammeln, auszuwählen und zu verfeinern und so vergangene Erfahrungen in handlungsrelevantes Wissen umzuwandeln. Über 16 verschiedene Aufgaben hinweg, darunter medizinische Diagnostik, juristische Analyse, Codegenerierung, Websuche, Werkzeugnutzung und verkörperte Interaktion, verbessert CASCADE die makrogemittelte Erfolgsrate um 20,9 % gegenüber Zero-Shot-Prompting und übertrifft dabei durchgängig gradientenbasierte und gedächtnisbasierte Baselines. Indem der Einsatz als adaptiver Lernprozess neu definiert wird, legt diese Arbeit eine Grundlage für kontinuierlich verbesserte KI-Systeme.
English
Large language models (LLMs) have become a central foundation of modern artificial intelligence, yet their lifecycle remains constrained by a rigid separation between training and deployment, after which learning effectively ceases. This limitation contrasts with natural intelligence, which continually adapts through interaction with its environment. In this paper, we formalise deployment-time learning (DTL) as the third stage in the LLM lifecycle that enables LLM agents to improve from experience during deployment without modifying model parameters. We present CASCADE (CASe-based Continual Adaptation during DEployment), a general and principled framework that equips LLM agents with an explicit, evolving episodic memory. CASCADE formulates experience reuse as a contextual bandit problem, enabling principled exploration-exploitation trade-offs and establishing no-regret guarantees over long-term interactions. This design allows agents to accumulate, select, and refine task-relevant cases, transforming past experience into actionable knowledge. Across 16 diverse tasks spanning medical diagnosis, legal analysis, code generation, web search, tool use, and embodied interaction, CASCADE improves macro-averaged success rate by 20.9% over zero-shot prompting while consistently outperforming gradient-based and memory-based baselines. By reframing deployment as an adaptive learning process, this work establishes a foundation for continually improving AI systems.
PDF21May 12, 2026