EvoFSM: Kontrollierte Selbstentwicklung für tiefgehende Forschung mit endlichen Zustandsautomaten
EvoFSM: Controllable Self-Evolution for Deep Research with Finite State Machines
January 14, 2026
papers.authors: Shuo Zhang, Chaofa Yuan, Ryan Guo, Xiaomin Yu, Rui Xu, Zhangquan Chen, Zinuo Li, Zhi Yang, Shuhao Guan, Zhenheng Tang, Sen Hu, Liwen Zhang, Ronghao Chen, Huacan Wang
cs.AI
papers.abstract
Während LLM-basierte Agenten vielversprechend für tiefgehende Recherchen sind, basieren die meisten bestehenden Ansätze auf festen Workflows, die sich nur schwer an realweltliche, offene Anfragen anpassen lassen. Daher untersuchen jüngste Arbeiten die Selbstevolution, indem Agenten ihren eigenen Code oder ihre Prompts umschreiben dürfen, um ihre Problemlösungsfähigkeit zu verbessern. Unbeschränkte Optimierung löst jedoch oft Instabilität, Halluzinationen und Instruktionsdrift aus. Wir schlagen EvoFSM vor, einen strukturierten, sich selbst entwickelnden Rahmen, der sowohl Anpassungsfähigkeit als auch Kontrolle erreicht, indem er einen expliziten Endlichen Automaten (Finite State Machine, FSM) weiterentwickelt, anstatt sich auf freies Umschreiben zu verlassen. EvoFSM entkoppelt den Optimierungsraum in makroskopischen *Flow* (Zustandsübergangslogik) und mikroskopische *Skills* (zustandsspezifisches Verhalten), was gezielte Verbesserungen innerhalb klarer Verhaltensgrenzen ermöglicht. Gesteuert durch einen Kritik-Mechanismus verfeinert EvoFSM den FSM über einen kleinen Satz eingeschränkter Operationen und integriert zudem einen sich selbst entwickelnden Speicher, der erfolgreiche Trajektorien als wiederverwendbare Priors und Fehlermuster als Einschränkungen für zukünftige Anfragen verdichtet. Umfangreiche Auswertungen auf fünf Multi-Hop-QA-Benchmarks demonstrieren die Wirksamkeit von EvoFSM. Insbesondere erreicht EvoFSM eine Genauigkeit von 58,0 % auf dem DeepSearch-Benchmark. Zusätzliche Ergebnisse zu interaktiven Entscheidungsfindungsaufgaben validieren weiterhin seine Generalisierungsfähigkeit.
English
While LLM-based agents have shown promise for deep research, most existing approaches rely on fixed workflows that struggle to adapt to real-world, open-ended queries. Recent work therefore explores self-evolution by allowing agents to rewrite their own code or prompts to improve problem-solving ability, but unconstrained optimization often triggers instability, hallucinations, and instruction drift. We propose EvoFSM, a structured self-evolving framework that achieves both adaptability and control by evolving an explicit Finite State Machine (FSM) instead of relying on free-form rewriting. EvoFSM decouples the optimization space into macroscopic Flow (state-transition logic) and microscopic Skill (state-specific behaviors), enabling targeted improvements under clear behavioral boundaries. Guided by a critic mechanism, EvoFSM refines the FSM through a small set of constrained operations, and further incorporates a self-evolving memory that distills successful trajectories as reusable priors and failure patterns as constraints for future queries. Extensive evaluations on five multi-hop QA benchmarks demonstrate the effectiveness of EvoFSM. In particular, EvoFSM reaches 58.0% accuracy on the DeepSearch benchmark. Additional results on interactive decision-making tasks further validate its generalization.