ChatPaper.aiChatPaper

Von statischen Vorlagen zu dynamischen Laufzeitgraphen: Ein Überblick über Workflow-Optimierung für LLM-Agenten

From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents

March 23, 2026
Autoren: Ling Yue, Kushal Raj Bhandari, Ching-Yun Ko, Dhaval Patel, Shuxin Lin, Nianjun Zhou, Jianxi Gao, Pin-Yu Chen, Shaowu Pan
cs.AI

Zusammenfassung

Auf großen Sprachmodellen (Large Language Models, LLMs) basierende Systeme werden zunehmend beliebter, um Aufgaben durch die Konstruktion ausführbarer Workflows zu lösen, die LLM-Aufrufe, Informationsbeschaffung, Werkzeugnutzung, Code-Ausführung, Speicheraktualisierungen und Verifizierung miteinander verknüpfen. Dieser Übersichtsartikel beleuchtet aktuelle Methoden zur Gestaltung und Optimierung solcher Workflows, die wir als agentenbasierte Berechnungsgraphen (Agentic Computation Graphs, ACGs) betrachten. Wir strukturieren die Literatur danach, wann die Workflow-Struktur festgelegt wird, wobei sich "Struktur" darauf bezieht, welche Komponenten oder Agenten vorhanden sind, wie sie voneinander abhängen und wie Informationen zwischen ihnen fließen. Diese Betrachtungsweise unterscheidet statische Methoden, die ein wiederverwendbares Workflow-Gerüst vor dem Einsatz festlegen, von dynamischen Methoden, die den Workflow für einen bestimmten Durchlauf vor oder während der Auswahl auswählen, generieren oder anpassen. Wir gliedern bestehende Arbeiten weiterhin entlang drei Dimensionen: Wann die Struktur bestimmt wird, welcher Teil des Workflows optimiert wird und welche Evaluierungssignale die Optimierung leiten (z.B. Aufgabenmetriken, Verifizierersignale, Präferenzen oder aus Ausführungspfaden abgeleitetes Feedback). Zudem unterscheiden wir zwischen wiederverwendbaren Workflow-Vorlagen, laufspezifisch realisierten Graphen und Ausführungspfaden, um so wiederverwendbare Designentscheidungen von den tatsächlich in einem Durchlauf eingesetzten Strukturen und dem realisierten Laufzeitverhalten zu trennen. Abschließend skizzieren wir eine strukturorientierte Evaluierungsperspektive, die nachgelagerte Aufgabenmetriken durch graphenbezogene Eigenschaften, Ausführungskosten, Robustheit und strukturelle Variation über verschiedene Eingaben hinweg ergänzt. Unser Ziel ist es, eine klare Terminologie, einen einheitlichen Rahmen zur Einordnung neuer Methoden, eine besser vergleichbare Sicht auf den bestehenden Literaturkorpus und einen reproduzierbareren Evaluierungsstandard für künftige Arbeiten zur Workflow-Optimierung für LLM-Agenten bereitzustellen.
English
Large language model (LLM)-based systems are becoming increasingly popular for solving tasks by constructing executable workflows that interleave LLM calls, information retrieval, tool use, code execution, memory updates, and verification. This survey reviews recent methods for designing and optimizing such workflows, which we treat as agentic computation graphs (ACGs). We organize the literature based on when workflow structure is determined, where structure refers to which components or agents are present, how they depend on each other, and how information flows between them. This lens distinguishes static methods, which fix a reusable workflow scaffold before deployment, from dynamic methods, which select, generate, or revise the workflow for a particular run before or during execution. We further organize prior work along three dimensions: when structure is determined, what part of the workflow is optimized, and which evaluation signals guide optimization (e.g., task metrics, verifier signals, preferences, or trace-derived feedback). We also distinguish reusable workflow templates, run-specific realized graphs, and execution traces, separating reusable design choices from the structures actually deployed in a given run and from realized runtime behavior. Finally, we outline a structure-aware evaluation perspective that complements downstream task metrics with graph-level properties, execution cost, robustness, and structural variation across inputs. Our goal is to provide a clear vocabulary, a unified framework for positioning new methods, a more comparable view of existing body of literature, and a more reproducible evaluation standard for future work in workflow optimizations for LLM agents.
PDF411March 26, 2026