ChatPaper.aiChatPaper

Van statische sjablonen naar dynamische runtime-grafieken: een overzicht van workflowoptimalisatie voor LLM-agenten

From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents

March 23, 2026
Auteurs: Ling Yue, Kushal Raj Bhandari, Ching-Yun Ko, Dhaval Patel, Shuxin Lin, Nianjun Zhou, Jianxi Gao, Pin-Yu Chen, Shaowu Pan
cs.AI

Samenvatting

Op grote taalmodellen (LLM's) gebaseerde systemen worden steeds populairder voor het oplossen van taken door het construeren van uitvoerbare workflows die LLM-aanroepen, informatie-ontsluiting, toolgebruik, code-uitvoering, geheugenupdates en verificatie verweven. Dit overzichtsartikel bespreekt recente methoden voor het ontwerpen en optimaliseren van dergelijke workflows, die wij behandelen als agent-gebaseerde rekenkundige grafen (ACG's). Wij ordenen de literatuur op basis van het tijdstip waarop de workflowstructuur wordt bepaald, waarbij structuur verwijst naar welke componenten of agenten aanwezig zijn, hoe zij van elkaar afhankelijk zijn en hoe informatie tussen hen stroomt. Deze lens onderscheidt statische methoden, die een herbruikbare workflowsjabloon vastleggen vóór implementatie, van dynamische methoden, die de workflow voor een specifieke uitvoering selecteren, genereren of reviseren vóór of tijdens de executie. Wij ordenen eerder werk verder langs drie dimensies: wanneer de structuur wordt bepaald, welk deel van de workflow wordt geoptimaliseerd, en welke evaluatiesignalen de optimalisatie sturen (bijv. taakmetrieken, verificatiesignalen, voorkeuren of feedback uit executietrajecten). Wij maken ook onderscheid tussen herbruikbare workflowsjablonen, runspecifieke gerealiseerde grafen en executietrajecten, waarbij herbruikbare ontwerpkeuzes worden gescheiden van de structuren die daadwerkelijk in een gegeven run worden ingezet en van het gerealiseerde runtime-gedrag. Ten slotte schetsen wij een structuurbewust evaluatieperspectief dat downstream taakmetrieken aanvult met graf-niveau eigenschappen, uitvoeringskosten, robuustheid en structurele variatie tussen inputs. Ons doel is het bieden van een duidelijke vocabulaire, een uniform kader voor het positioneren van nieuwe methoden, een meer vergelijkbaar beeld van de bestaande literatuur en een meer reproduceerbare evaluatiestandaard voor toekomstig werk op het gebied van workflowoptimalisaties voor LLM-agenten.
English
Large language model (LLM)-based systems are becoming increasingly popular for solving tasks by constructing executable workflows that interleave LLM calls, information retrieval, tool use, code execution, memory updates, and verification. This survey reviews recent methods for designing and optimizing such workflows, which we treat as agentic computation graphs (ACGs). We organize the literature based on when workflow structure is determined, where structure refers to which components or agents are present, how they depend on each other, and how information flows between them. This lens distinguishes static methods, which fix a reusable workflow scaffold before deployment, from dynamic methods, which select, generate, or revise the workflow for a particular run before or during execution. We further organize prior work along three dimensions: when structure is determined, what part of the workflow is optimized, and which evaluation signals guide optimization (e.g., task metrics, verifier signals, preferences, or trace-derived feedback). We also distinguish reusable workflow templates, run-specific realized graphs, and execution traces, separating reusable design choices from the structures actually deployed in a given run and from realized runtime behavior. Finally, we outline a structure-aware evaluation perspective that complements downstream task metrics with graph-level properties, execution cost, robustness, and structural variation across inputs. Our goal is to provide a clear vocabulary, a unified framework for positioning new methods, a more comparable view of existing body of literature, and a more reproducible evaluation standard for future work in workflow optimizations for LLM agents.
PDF411March 26, 2026