De Plantillas Estáticas a Gráficos Dinámicos en Tiempo de Ejecución: Una Revisión de la Optimización de Flujos de Trabajo para Agentes de LLM
From Static Templates to Dynamic Runtime Graphs: A Survey of Workflow Optimization for LLM Agents
March 23, 2026
Autores: Ling Yue, Kushal Raj Bhandari, Ching-Yun Ko, Dhaval Patel, Shuxin Lin, Nianjun Zhou, Jianxi Gao, Pin-Yu Chen, Shaowu Pan
cs.AI
Resumen
Los sistemas basados en modelos de lenguaje de gran tamaño (LLM) son cada vez más populares para resolver tareas mediante la construcción de flujos de trabajo ejecutables que intercalan llamadas al LLM, recuperación de información, uso de herramientas, ejecución de código, actualizaciones de memoria y verificación. Esta revisión examina métodos recientes para diseñar y optimizar dichos flujos de trabajo, que tratamos como grafos de computación agentiva (ACGs). Organizamos la literatura basándonos en cuándo se determina la estructura del flujo de trabajo, donde "estructura" se refiere a qué componentes o agentes están presentes, cómo dependen unos de otros y cómo fluye la información entre ellos. Esta perspectiva distingue entre métodos estáticos, que fijan un andamiaje de flujo de trabajo reutilizable antes del despliegue, y métodos dinámicos, que seleccionan, generan o revisan el flujo de trabajo para una ejecución particular antes o durante su realización. Organizamos aún más el trabajo previo a lo largo de tres dimensiones: cuándo se determina la estructura, qué parte del flujo de trabajo se optimiza y qué señales de evaluación guían la optimización (por ejemplo, métricas de tareas, señales de verificadores, preferencias o retroalimentación derivada de trazas). También distinguimos entre plantillas de flujo de trabajo reutilizables, grafos realizados específicos de una ejecución y trazas de ejecución, separando así las decisiones de diseño reutilizables de las estructuras realmente desplegadas en una ejecución dada y del comportamiento en tiempo de ejecución realizado. Finalmente, esbozamos una perspectiva de evaluación consciente de la estructura que complementa las métricas de tareas posteriores con propiedades a nivel de grafo, costo de ejecución, robustez y variación estructural entre entradas. Nuestro objetivo es proporcionar un vocabulario claro, un marco unificado para posicionar nuevos métodos, una visión más comparable del cuerpo de literatura existente y un estándar de evaluación más reproducible para trabajos futuros en optimización de flujos de trabajo para agentes basados en LLM.
English
Large language model (LLM)-based systems are becoming increasingly popular for solving tasks by constructing executable workflows that interleave LLM calls, information retrieval, tool use, code execution, memory updates, and verification. This survey reviews recent methods for designing and optimizing such workflows, which we treat as agentic computation graphs (ACGs). We organize the literature based on when workflow structure is determined, where structure refers to which components or agents are present, how they depend on each other, and how information flows between them. This lens distinguishes static methods, which fix a reusable workflow scaffold before deployment, from dynamic methods, which select, generate, or revise the workflow for a particular run before or during execution. We further organize prior work along three dimensions: when structure is determined, what part of the workflow is optimized, and which evaluation signals guide optimization (e.g., task metrics, verifier signals, preferences, or trace-derived feedback). We also distinguish reusable workflow templates, run-specific realized graphs, and execution traces, separating reusable design choices from the structures actually deployed in a given run and from realized runtime behavior. Finally, we outline a structure-aware evaluation perspective that complements downstream task metrics with graph-level properties, execution cost, robustness, and structural variation across inputs. Our goal is to provide a clear vocabulary, a unified framework for positioning new methods, a more comparable view of existing body of literature, and a more reproducible evaluation standard for future work in workflow optimizations for LLM agents.