Apprendimento sul Lavoro: Un Agente Auto-Evolutivo Basato sull'Esperienza per Compiti a Lungo Termine
Learning on the Job: An Experience-Driven Self-Evolving Agent for Long-Horizon Tasks
October 9, 2025
Autori: Cheng Yang, Xuemeng Yang, Licheng Wen, Daocheng Fu, Jianbiao Mei, Rong Wu, Pinlong Cai, Yufan Shen, Nianchen Deng, Botian Shi, Yu Qiao, Haifeng Li
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato capacità straordinarie in diversi ambiti, ma persistono sfide significative quando si tratta di implementarli come agenti AI per compiti a lungo termine nel mondo reale. Gli attuali agenti basati su LLM presentano una limitazione cruciale: sono statici durante il test e non possono apprendere dall'esperienza, mancando della capacità di accumulare conoscenze e migliorare continuamente sul campo. Per affrontare questa sfida, proponiamo MUSE, un nuovo framework per agenti che introduce un sistema guidato dall'esperienza e auto-evolutivo, incentrato su un modulo di memoria gerarchico. MUSE organizza diversi livelli di esperienza e li sfrutta per pianificare ed eseguire compiti a lungo termine in molteplici applicazioni. Dopo l'esecuzione di ogni sotto-compito, l'agente riflette autonomamente sulla sua traiettoria, convertendo la traiettoria grezza in esperienza strutturata e integrandola nuovamente nel modulo di memoria. Questo meccanismo consente all'agente di evolversi oltre i suoi parametri pre-addestrati statici, promuovendo un apprendimento continuo e un'auto-evoluzione. Valutiamo MUSE sul benchmark di produttività a lungo termine TAC, dove raggiunge nuove prestazioni di stato dell'arte con un margine significativo utilizzando solo un modello leggero Gemini-2.5 Flash. Esperimenti sufficienti dimostrano che, man mano che l'agente accumula autonomamente esperienza, mostra capacità di completamento dei compiti sempre più superiori, nonché robuste capacità di apprendimento continuo e auto-evoluzione. Inoltre, l'esperienza accumulata da MUSE mostra forti proprietà di generalizzazione, consentendo miglioramenti zero-shot su nuovi compiti. MUSE stabilisce un nuovo paradigma per gli agenti AI capaci di automatizzare compiti di produttività nel mondo reale.
English
Large Language Models have demonstrated remarkable capabilities across
diverse domains, yet significant challenges persist when deploying them as AI
agents for real-world long-horizon tasks. Existing LLM agents suffer from a
critical limitation: they are test-time static and cannot learn from
experience, lacking the ability to accumulate knowledge and continuously
improve on the job. To address this challenge, we propose MUSE, a novel agent
framework that introduces an experience-driven, self-evolving system centered
around a hierarchical Memory Module. MUSE organizes diverse levels of
experience and leverages them to plan and execute long-horizon tasks across
multiple applications. After each sub-task execution, the agent autonomously
reflects on its trajectory, converting the raw trajectory into structured
experience and integrating it back into the Memory Module. This mechanism
enables the agent to evolve beyond its static pretrained parameters, fostering
continuous learning and self-evolution. We evaluate MUSE on the long-horizon
productivity benchmark TAC. It achieves new SOTA performance by a significant
margin using only a lightweight Gemini-2.5 Flash model. Sufficient Experiments
demonstrate that as the agent autonomously accumulates experience, it exhibits
increasingly superior task completion capabilities, as well as robust
continuous learning and self-evolution capabilities. Moreover, the accumulated
experience from MUSE exhibits strong generalization properties, enabling
zero-shot improvement on new tasks. MUSE establishes a new paradigm for AI
agents capable of real-world productivity task automation.