ChatPaper.aiChatPaper

Des modèles statiques aux graphes d'exécution dynamiques : Une étude sur l'optimisation des flux de travail pour les agents LLM

From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents

March 23, 2026
Auteurs: Ling Yue, Kushal Raj Bhandari, Ching-Yun Ko, Dhaval Patel, Shuxin Lin, Nianjun Zhou, Jianxi Gao, Pin-Yu Chen, Shaowu Pan
cs.AI

Résumé

Les systèmes basés sur les grands modèles de langage (LLM) gagnent en popularité pour résoudre des tâches en construisant des workflows exécutables qui entrelacent des appels au LLM, la recherche d'information, l'utilisation d'outils, l'exécution de code, les mises à jour de mémoire et la vérification. Cette étude passe en revue les méthodes récentes pour concevoir et optimiser de tels workflows, que nous traitons comme des graphes de calcul agentiques (ACG). Nous organisons la littérature en fonction du moment où la structure du workflow est déterminée, la structure faisant référence aux composants ou agents présents, à leurs dépendances et au flux d'information entre eux. Cette perspective distingue les méthodes statiques, qui fixent une structure de workflow réutilisable avant le déploiement, des méthodes dynamiques, qui sélectionnent, génèrent ou révisent le workflow pour une exécution particulière avant ou pendant son déroulement. Nous organisons également les travaux antérieurs selon trois dimensions : le moment où la structure est déterminée, la partie du workflow optimisée et les signaux d'évaluation guidant l'optimisation (par exemple, les métriques de tâche, les signaux de vérification, les préférences ou les retours dérivés des traces). Nous distinguons aussi les modèles de workflow réutilisables, les graphes réalisés spécifiques à une exécution et les traces d'exécution, séparant ainsi les choix de conception réutilisables des structures réellement déployées lors d'une exécution donnée et du comportement d'exécution réalisé. Enfin, nous esquissons une perspective d'évaluation structurelle qui complète les métriques de tâche en aval par des propriétés au niveau du graphe, le coût d'exécution, la robustesse et la variation structurelle entre les entrées. Notre objectif est de fournir un vocabulaire clair, un cadre unifié pour positionner de nouvelles méthodes, une vision plus comparable de la littérature existante et un standard d'évaluation plus reproductible pour les travaux futurs sur l'optimisation des workflows pour les agents LLM.
English
Large language model (LLM)-based systems are becoming increasingly popular for solving tasks by constructing executable workflows that interleave LLM calls, information retrieval, tool use, code execution, memory updates, and verification. This survey reviews recent methods for designing and optimizing such workflows, which we treat as agentic computation graphs (ACGs). We organize the literature based on when workflow structure is determined, where structure refers to which components or agents are present, how they depend on each other, and how information flows between them. This lens distinguishes static methods, which fix a reusable workflow scaffold before deployment, from dynamic methods, which select, generate, or revise the workflow for a particular run before or during execution. We further organize prior work along three dimensions: when structure is determined, what part of the workflow is optimized, and which evaluation signals guide optimization (e.g., task metrics, verifier signals, preferences, or trace-derived feedback). We also distinguish reusable workflow templates, run-specific realized graphs, and execution traces, separating reusable design choices from the structures actually deployed in a given run and from realized runtime behavior. Finally, we outline a structure-aware evaluation perspective that complements downstream task metrics with graph-level properties, execution cost, robustness, and structural variation across inputs. Our goal is to provide a clear vocabulary, a unified framework for positioning new methods, a more comparable view of existing body of literature, and a more reproducible evaluation standard for future work in workflow optimizations for LLM agents.
PDF411March 26, 2026