De Modelos Estáticos a Grafos de Execução Dinâmicos: Um Estudo sobre Otimização de Fluxos de Trabalho para Agentes de LLM
From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents
March 23, 2026
Autores: Ling Yue, Kushal Raj Bhandari, Ching-Yun Ko, Dhaval Patel, Shuxin Lin, Nianjun Zhou, Jianxi Gao, Pin-Yu Chen, Shaowu Pan
cs.AI
Resumo
Os sistemas baseados em modelos de linguagem de grande escala (LLM) estão se tornando cada vez mais populares para resolver tarefas através da construção de fluxos de trabalho executáveis que intercalam chamadas de LLM, recuperação de informação, uso de ferramentas, execução de código, atualizações de memória e verificação. Esta pesquisa revisa métodos recentes para projetar e otimizar tais fluxos de trabalho, que tratamos como grafos de computação agentivos (ACGs). Organizamos a literatura com base em quando a estrutura do fluxo de trabalho é determinada, onde "estrutura" se refere a quais componentes ou agentes estão presentes, como eles dependem uns dos outros e como a informação flui entre eles. Esta lente distingue métodos estáticos, que fixam um arcabouço de fluxo de trabalho reutilizável antes da implantação, de métodos dinâmicos, que selecionam, geram ou revisam o fluxo de trabalho para uma execução específica antes ou durante a execução. Organizamos ainda o trabalho anterior ao longo de três dimensões: quando a estrutura é determinada, qual parte do fluxo de trabalho é otimizada e quais sinais de avaliação orientam a otimização (por exemplo, métricas de tarefa, sinais de verificador, preferências ou feedback derivado de *traces*). Também distinguimos modelos de fluxo de trabalho reutilizáveis, grafos realizados específicos da execução e *traces* de execução, separando escolhas de projeto reutilizáveis das estruturas realmente implantadas em uma determinada execução e do comportamento em tempo de execução realizado. Por fim, delineamos uma perspectiva de avaliação consciente da estrutura que complementa as métricas de tarefa *downstream* com propriedades em nível de grafo, custo de execução, robustez e variação estrutural entre entradas. Nosso objetivo é fornecer um vocabulário claro, uma estrutura unificada para posicionar novos métodos, uma visão mais comparável do corpo de literatura existente e um padrão de avaliação mais reproduzível para trabalhos futuros em otimizações de fluxo de trabalho para agentes de LLM.
English
Large language model (LLM)-based systems are becoming increasingly popular for solving tasks by constructing executable workflows that interleave LLM calls, information retrieval, tool use, code execution, memory updates, and verification. This survey reviews recent methods for designing and optimizing such workflows, which we treat as agentic computation graphs (ACGs). We organize the literature based on when workflow structure is determined, where structure refers to which components or agents are present, how they depend on each other, and how information flows between them. This lens distinguishes static methods, which fix a reusable workflow scaffold before deployment, from dynamic methods, which select, generate, or revise the workflow for a particular run before or during execution. We further organize prior work along three dimensions: when structure is determined, what part of the workflow is optimized, and which evaluation signals guide optimization (e.g., task metrics, verifier signals, preferences, or trace-derived feedback). We also distinguish reusable workflow templates, run-specific realized graphs, and execution traces, separating reusable design choices from the structures actually deployed in a given run and from realized runtime behavior. Finally, we outline a structure-aware evaluation perspective that complements downstream task metrics with graph-level properties, execution cost, robustness, and structural variation across inputs. Our goal is to provide a clear vocabulary, a unified framework for positioning new methods, a more comparable view of existing body of literature, and a more reproducible evaluation standard for future work in workflow optimizations for LLM agents.