ChatPaper.aiChatPaper

Apprendimento sul Lavoro: Un Agente Auto-Evolutivo Basato sull'Esperienza per Compiti a Lungo Termine

Learning on the Job: An Experience-Driven Self-Evolving Agent for Long-Horizon Tasks

October 9, 2025
Autori: Cheng Yang, Xuemeng Yang, Licheng Wen, Daocheng Fu, Jianbiao Mei, Rong Wu, Pinlong Cai, Yufan Shen, Nianchen Deng, Botian Shi, Yu Qiao, Haifeng Li
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato capacità straordinarie in diversi ambiti, ma persistono sfide significative quando si tratta di implementarli come agenti AI per compiti a lungo termine nel mondo reale. Gli attuali agenti basati su LLM presentano una limitazione cruciale: sono statici durante il test e non possono apprendere dall'esperienza, mancando della capacità di accumulare conoscenze e migliorare continuamente sul campo. Per affrontare questa sfida, proponiamo MUSE, un nuovo framework per agenti che introduce un sistema guidato dall'esperienza e auto-evolutivo, incentrato su un modulo di memoria gerarchico. MUSE organizza diversi livelli di esperienza e li sfrutta per pianificare ed eseguire compiti a lungo termine in molteplici applicazioni. Dopo l'esecuzione di ogni sotto-compito, l'agente riflette autonomamente sulla sua traiettoria, convertendo la traiettoria grezza in esperienza strutturata e integrandola nuovamente nel modulo di memoria. Questo meccanismo consente all'agente di evolversi oltre i suoi parametri pre-addestrati statici, promuovendo un apprendimento continuo e un'auto-evoluzione. Valutiamo MUSE sul benchmark di produttività a lungo termine TAC, dove raggiunge nuove prestazioni di stato dell'arte con un margine significativo utilizzando solo un modello leggero Gemini-2.5 Flash. Esperimenti sufficienti dimostrano che, man mano che l'agente accumula autonomamente esperienza, mostra capacità di completamento dei compiti sempre più superiori, nonché robuste capacità di apprendimento continuo e auto-evoluzione. Inoltre, l'esperienza accumulata da MUSE mostra forti proprietà di generalizzazione, consentendo miglioramenti zero-shot su nuovi compiti. MUSE stabilisce un nuovo paradigma per gli agenti AI capaci di automatizzare compiti di produttività nel mondo reale.
English
Large Language Models have demonstrated remarkable capabilities across diverse domains, yet significant challenges persist when deploying them as AI agents for real-world long-horizon tasks. Existing LLM agents suffer from a critical limitation: they are test-time static and cannot learn from experience, lacking the ability to accumulate knowledge and continuously improve on the job. To address this challenge, we propose MUSE, a novel agent framework that introduces an experience-driven, self-evolving system centered around a hierarchical Memory Module. MUSE organizes diverse levels of experience and leverages them to plan and execute long-horizon tasks across multiple applications. After each sub-task execution, the agent autonomously reflects on its trajectory, converting the raw trajectory into structured experience and integrating it back into the Memory Module. This mechanism enables the agent to evolve beyond its static pretrained parameters, fostering continuous learning and self-evolution. We evaluate MUSE on the long-horizon productivity benchmark TAC. It achieves new SOTA performance by a significant margin using only a lightweight Gemini-2.5 Flash model. Sufficient Experiments demonstrate that as the agent autonomously accumulates experience, it exhibits increasingly superior task completion capabilities, as well as robust continuous learning and self-evolution capabilities. Moreover, the accumulated experience from MUSE exhibits strong generalization properties, enabling zero-shot improvement on new tasks. MUSE establishes a new paradigm for AI agents capable of real-world productivity task automation.
PDF222October 10, 2025