HY-WU (Parte I): Un framework estensibile di memoria neurale funzionale e un'istanziazione nell'editing di immagini guidato da testo
HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing
March 7, 2026
Autori: Tencent HY Team
cs.AI
Abstract
I modelli di base stanno transitando da predittori offline a sistemi distribuiti progettati per operare su orizzonti temporali prolungati. Negli scenari reali di implementazione, gli obiettivi non sono fissi: i domini subiscono derive, le preferenze degli utenti evolvono e nuovi compiti emergono dopo che il modello è stato rilasciato. Ciò eleva l'apprendimento continuo e la personalizzazione istantanea da caratteristiche opzionali a requisiti architetturali fondamentali. Tuttavia, la maggior parte delle pipeline di adattamento segue ancora un paradigma di pesi statici: dopo l'addestramento (o dopo qualsiasi fase di adattamento), l'inferenza esegue un unico vettore di parametri indipendentemente dall'intento dell'utente, dal dominio o dai vincoli specifici dell'istanza. Questo approccio tratta il modello addestrato o adattato come un singolo punto nello spazio dei parametri. In regimi eterogenei e in continua evoluzione, obiettivi distinti possono indurre regioni fattibili separate sui parametri, costringendo qualsiasi aggiornamento condiviso a compromessi, interferenze o overspecializzazione. Di conseguenza, l'apprendimento continuo e la personalizzazione sono spesso implementati come riscritture ripetute di pesi condivisi, rischiando il degrado dei comportamenti appresi in precedenza. Proponiamo HY-WU (Weight Unleashing), un framework di adattamento memory-first che sposta la pressione adattativa dalla riscrittura di un singolo punto parametrico condiviso. HY-WU implementa una memoria funzionale (a livello di operatore) come modulo neurale: un generatore che sintetizza aggiornamenti dei pesi on-the-fly dalla condizione dell'istanza, producendo operatori specifici per istanza senza ottimizzazione al momento del test.
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.